Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczny rekruter Amazona dyskryminował kobiety

Recommended Posts

Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety.

W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę.

Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy.

Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.


« powrót do artykułu

Share this post


Link to post
Share on other sites
1 hour ago, KopalniaWiedzy.pl said:

pod kątem osiągnięcia jak największej różnorodności wśród kandydatów

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

A tak w ogóle to tyle lat zastanawiano się, jak pokonać wszechmocne korporacje, a tu bach - będą niszczyć się same.

Share this post


Link to post
Share on other sites
2 godziny temu, KopalniaWiedzy.pl napisał:

dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych

2 godziny temu, KopalniaWiedzy.pl napisał:

o pracę starli się tam głównie mężczyźni

2 godziny temu, KopalniaWiedzy.pl napisał:

dyskryminuje kobiety

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu. Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni. Koniecznym jest natychmiastowe wprowadzenie rozwiązań z „Harrisona Bergerona”.

2 godziny temu, KopalniaWiedzy.pl napisał:

Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja

Oj, Mariuszu… :(

2 godziny temu, KopalniaWiedzy.pl napisał:

Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.

Tak jest, parytety dla karłów i rudych. Zawsze o tym mówię.

Share this post


Link to post
Share on other sites

Ja patrzyłem dalej w przyszłość i uważam że powinien być parytet na stanowiskach profesorskich i dla tych co nie ukończyli podstawówki :)

A pracodawca powinien zatrudniać połowę pracowników pracowitych a połowę leniwych.
Nie można dyskryminować leniwych i głupich.

Złodzieje i bandyci nie powinni być dyskryminowani w pracach w agencjach ochroniarskich czy w Policji.

No i pedofile nie powinni być dyskryminowani w dostępie do dzieci.

A teraz czekam która z poprawności wzbudzi największe kontrowersje :D

BTW. Przypomina mi się wywiad z uczestnikiem marszu równości, coś ala (piszę z pamięci):

po co tu jesteś?

chcę obniżenia wieku od którego można seks uprawiać.

chcesz ru... 12-stolatki?

Tak.

3 godziny temu, KopalniaWiedzy.pl napisał:

jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

LOL

 

Share this post


Link to post
Share on other sites
2 hours ago, Przemek Kobel said:

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Share this post


Link to post
Share on other sites
2 hours ago, mankomaniak said:

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Ja nie lubię robić łopatą, ale tym razem będzie wyjątek:

KANDYDAT to osoba, która zobaczyła ogłoszenie o pracę i złożyła papiery jako ktoś zainteresowany ofertą. Jakim niby sposobem doprowadzić do parytetu w tej grupie? Bo jeśli okaże się, że do pracy przy rozładunku węgla było 30 chętnych facetów i pięć kobiet, to jeszcze można zorganizować szwadron i 25 seksistów posłać w niebyt. Będzie 5 kobiet i 5 podludzi. Ale jeśli zgłosi się 30 facetów i ani jednej niewiasty? To już nawet odstrzał nie pomoże. Może przymusowa terapia hormonalna. Hm...

Share this post


Link to post
Share on other sites

Ale o co ci chodzi? O jakim ty parytecie mówisz, skoro firma prywatna nie chce facetów? Będziesz kazał mi jeść codziennie 2-3 jabłka, bo to np. optymalny parytet wg naukowców, chociaż ja nie chcę jeść jabłek? 

Share this post


Link to post
Share on other sites

ale o czym w ogóle tutaj rozmowa? O odstrzeliwaniu i celowym zwiększaniu różnorodności przy przyjmowaniu i o parytetach to zapewne wasza i dziennikarska fantazja.

Źle dobrano próbkę uczącą, być może modele, na skutek tego model przyjął, że kobiety nie są pożądane a to ewidentnie błędne podejście, bo na pewno nie o to chodziło bo przyjdzie powiedzmy twarda kobieta specjalista i zostanie zdyskwalifikowana za to, że jest kobietą, no słabe.

 Tutaj przerysowana analogia.

 

Zapewne chodzi aby uwzględnić różnorodność w danych wejściowych, aby nie wychodziły na wyjściu bzdury w postaci "kobieta -> odpada"

Share this post


Link to post
Share on other sites
21 godzin temu, Afordancja napisał:

Źle dobrano próbkę uczącą,

O, taka metodologia badań jest intrygująca. Trzeba dobierać próbkę tak długo, aż uzyskamy oczekiwane rezultaty.

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

 

Tutaj chyba też trzeba by dobierać inne próbki (och wait, przecież to statystyka!):

https://www.theguardian.com/us-news/2018/oct/11/washington-state-supreme-court-strikes-down-death-penalty

Cytat

Five justices on the state supreme court said the “death penalty is invalid because it is imposed in an arbitrary and racially biased manner”.

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Share this post


Link to post
Share on other sites
W dniu ‎11‎.‎10‎.‎2018 o 14:50, wilk napisał:

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu.

Jak się nie widzi sensu i logiki, to po co te przytyki do ruchów postępowych?  

Trenowała SI na facetach? No to wdrukowała sobie, że preferowanym  hobby musi być piłka nożna, MMA czy wyścigi po Słowacji, ulubionym  napojem piwko a w danych antropometrycznych kobietom wychodził anormalny;) stosunek obwodu klatki piersiowej do talii. 

W dniu ‎11‎.‎10‎.‎2018 o 15:23, thikim napisał:

, coś ala (piszę z pamięci):

Typowe : niedowidzi, niedosłyszy ale bzdurkę napisać musi.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
19 hours ago, wilk said:

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Czyli... no tego... prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii? Jaja sobie robisz, aboco? :huh:

Coby jasność była: wszelkie ideologie, -izmy i inne takie mam... no dokładnie w tym samym miejscu.

Share this post


Link to post
Share on other sites
5 godzin temu, 3grosze napisał:

Trenowała SI na facetach?

A widzisz, sęk w tym, że właśnie nie tylko. Po prostu kobiety stanowiły mniejszość. Niestety nie podali procentów, w źródle jest „most”. Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV. Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców. I co teraz? Ktoś nie goni własnego ogona?

5 godzin temu, 3grosze napisał:

przytyki do ruchów postępowych?

Nie sposób tak nazwać ideologię, która tworzy problemy, by bohatersko z nimi walczyć.

3 godziny temu, ex nihilo napisał:

prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii?

Nic nie pisałem o prawicy. W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Odetnijmy się jednak faktycznie od ideologii, by nie robić offtopu. Niepotrzebnie ją do tego wmieszałem. Zdanie na ten temat mam jasne, uznajmy jednak neutralnie, że mamy inną ocenę sytuacji. (to AI zostało zdyskryminowane za zbyt dobre robienie tego, co miało robić :>)

Share this post


Link to post
Share on other sites
7 hours ago, wilk said:

Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV.

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

On 10/11/2018 at 11:50 AM, KopalniaWiedzy.pl said:

Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Więc co to za brednie.

7 hours ago, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Oczywiście to ma sens: zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy. I stąd logiczny wniosek: kobieta -> odrzucamy. Facet -> przyjmujemy.

Share this post


Link to post
Share on other sites
15 godzin temu, mankomaniak napisał:

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety. AI wywnioskowała sobie „coś” na podstawie pojawiających się słów. W tym przypadku na podstawie jednego słowa przed terminem „klub szachowy”. Władze Amazonu doszły zaś do wniosku, że owe „coś” jest dyskryminacją. Jestem dość przekonany, że w podobny sposób potraktowani mogli zostać mężczyźni, którzy wpisali iż chodzą na aerobik i są mistrzami w dzierganiu. Podobnież kandydaci mogliby pisać, że są „glutaminian sodu chess club captain”. Efekt byłby ten sam, ale afery by nie było.

15 godzin temu, mankomaniak napisał:

zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni. Tabula rasa nie wie co to dobra/zła uczelnia. W podobny sposób j.w.

Może prościej: AI nie stało się dyskryminującym rasistowskim Skynetem, a jedynie ujednoliciło preferencje zatrudnieniowe na dane stanowiska w tej firmie. Hint: statystyka. Ta sama, która okazała się rasistowska, bo jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa. Która? Odpowiem jak Tadeusz Sznuk: nie wiem, choć się domyślam.

Share this post


Link to post
Share on other sites
23 hours ago, wilk said:

W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Różne rodzaje dyskryminacji były i są faktem. Niektóre mogą być obiektywnie uzasadnione (w sensie "słuszne/usprawiedliwone/...") przyczyny, inne nie - np. wynikają z uprzedzeń, ideologii itp. pierdół. Jest - chyba całkiem sensowna - tendencja do likwidacji dyskryminacji z powodu uprzedzeń, ideologii, i też takich, które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Nic dziwnego w tej sytuacji, że układ szuka nowego położenia równowagi odchylając się w różne strony. "Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący. To socjofizyka, o której wspominał tu parę dni temu Jarek.

1 hour ago, wilk said:

jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa.

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Edycja: "rasowych" oczywiście miało być, a nie "razowych".

Edited by ex nihilo
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Godzinę temu, ex nihilo napisał:

które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Jeśli je utraciły i stały się przesądem, to jak najbardziej tak. Oczywiście nie można uznawać tego układu jako trwale stabilnego i od wyznaczonej chwili wymuszać w przyszłość absolutny zakaz wszelkiego podważania pod straszakiem rychłej kary. Niektóre przyczyny wynikały z ciemnych zaułków ewolucji społeczeństw, dominacji pewnych ideologii, inne z historycznych konfliktów, a jeszcze inne z nastrojów — obaw, niechęci lub agresji. Problem w tym, że wypuszczanie walca i zrównywanie wszystkiego dla niektórych jest narzędziem do osiągania konkretnych egoistycznych celów, czasem kolokwialnie mówiąc — głupich, a walec jest elastyczny, by pasował do światopoglądu naszego, a nie walcowanych, a przy okazji omijał wybrane wyjątki. Gorzej, gdy walec jest używany zamiast koparki lub spychacza, jako lewar, by przeforsować coś zupełnie innego zastraszając nierozwalcowanymi jeszcze wybojami.

Godzinę temu, ex nihilo napisał:

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Statystyki nie obchodzi rasa, nie jest rasistowska (a może jest…). Fakt jest faktem, powód jest irrelewantny (tak samo pracodawcy nie obchodzi, że chciałeś iść na Harvard, ale nie udało się i poszedłeś na zwykłą stanówkę, faktem może być jednak to, że ukończyłeś ją na najlepszej lokacie). Tutaj zaś użyto walca anty-dyskryminacji jako lewara, spychacza, by usunąć z góry upatrzoną pewną przeszkodę (kara śmierci jest be), ale z której problem w ogóle nie wynikał. Kierowców tego walca nie obchodził faktyczny problem, a przeszkoda.

Godzinę temu, ex nihilo napisał:

"Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący.

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści. Zresztą samo określenie co jest postępowe, a co hamulcowe jest wybitnie nacechowane ideologicznie. Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

Share this post


Link to post
Share on other sites
6 hours ago, wilk said:

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety

Jak nie była jak była. Pośrednio to wynika, dla AI nie trzeba formalnego nazewnictwa. W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami. Zamiast przyznać się do błędu, brniesz w swój fanatyzm.

6 hours ago, wilk said:

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni.

Nie zrozumiałeś mojej uwagi. Miałem na myśli to, że o ile ukończenie dobrej uczelni może stanowić obiektywny sygnał, żeby kogoś przyjąć, o tyle generalizowanie tego na płeć jest totalną bzdurą. Przeszłość danej osoby ma wpływ na jej przyszłość (a więc też wykonywanie pracy), natomiast fakt, że w przeszłości było niewiele kobiet na danym stanowisku, nie oznacza przecież ich brak w przyszłości będzie pogarszać efektywność firmy.

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet, tylko że to jest tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej. Niestety w ten sposób wielu topi majątek.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
5 godzin temu, wilk napisał:

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści.

O tak;), to już da się ocenić a priori. Pamiętam:D, że wspólnota pierwotna też mocno oponowała przeciwko wszelkim zmianom ustrojowym. Mamy demokracji nie ulepszać, czy mamy  cofnąć się znów do jakiegoś autorytaryzmu?

OK.Kończę OT

Jeszcze tylko:

5 godzin temu, wilk napisał:

Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

To już manipulacja: nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Na podstawie tego, co przeczytałem, sądzę, że ten rekruter jednak działał źle. Jeśli było mało kobiet zatrudnionych względem mężczyzn, i zaczął powiązywać tę dysproporcję z byciem kobietą, to zapewne problemem jest to, że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn.

Share this post


Link to post
Share on other sites
6 minut temu, 3grosze napisał:

A propos, miło Mr Vocabulary widzieć.:)

Dzięki – niestety, życiowy galimatias zamienił mnie z uczestnika w podglądacza forumowych debat ;)

I ja się cieszę, że nie uległeś denominacji ;)

Share this post


Link to post
Share on other sites
16 godzin temu, mankomaniak napisał:

Jak nie była jak była.

Cały czas wysnuwasz błędne wnioski na podstawie tego, jak ludzie nadają znaczenie słowom. AI nie została poinformowana o płci, nie wie czym jest płeć, rasa itd. Koniec i kropka. Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV. To absolutnie nie znaczy, że dyskryminuje kobiety, a wyłącznie oznacza, że uznaje takich kandydatów za mniej adekwatnych, bo tak robili ludzie (statystycznie). Zresztą skoro AI zostało wytrenowane na danej próbce, to stosowało się do takiego właśnie wzorca (człowiekowi trudno byłoby wyciągnąć wnioski z tysięcy CV, dla maszyny to ułamki sekund). A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF. ;-)

16 godzin temu, mankomaniak napisał:

W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami.

Tak, pisałem o tym przecież w aluzji o szydełkowaniu. Ale co to zmienia, skoro takie osoby okazywały się statystycznie gorsze i odpadały? Czy firma musi zacząć zatrudniać kapitanów klubów szachowych za ich sekretne talenty czy ogólną ocenę pożytku dla firmy? Mój fanatyzm kazał pozdrowić Twój fanatyzm.

16 godzin temu, mankomaniak napisał:

o tyle generalizowanie tego na płeć jest totalną bzdurą.

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć. AI operowało na leksemach, na zależnościach między nimi. Gdybyś zadał temu AI, by rozdzieliło kandydatów według płci, to by tego nie zrobiło, bo nie w tym celu zostało stworzone. Zostało stworzone, by podzielić na tych, co się nadają i tych co się nie nadają.

16 godzin temu, mankomaniak napisał:

ukończenie dobrej uczelni może stanowić obiektywny sygnał

Tak, dla człowieka. I tak też na podstawie historycznych ewaluacji dokonało AI.

16 godzin temu, mankomaniak napisał:

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet

Brednie. Zaprzestań pomówień. „A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.

16 godzin temu, mankomaniak napisał:

tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej.

Nieadekwatne, bez związku z tym o czym traktuje artykuł. Podobnie jak o AI, nie masz pojęcia o giełdzie.

16 godzin temu, 3grosze napisał:

nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

Niedyskryminowanie — jak najbardziej, to raczej oczywiste. Forsowanie każdych zachcianek, by się przypodobać lub pod naciskiem „walca” — absolutnie nie.

7 godzin temu, MrVocabulary (WhizzKid) napisał:

że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn

Dokładnie tak, ale nie do końca. Tak samo jak szydełkujących mężczyzn. Widocznie odkrył pewne zależności, które powodują pieczenie pewnej części ciała przez niektórych. Samo pojęcie „lepszości” w tym przypadku jest trochę niewłaściwe, bo to właśnie lepszość jest informacją wyjściową, wnioskiem. Natomiast jak widzę wszyscy rozmówcy tutaj zakładają, że lepszość jest jedną z informacji na wejściu. Algorytm opierał się na uśrednionych trendach zatrudnień wyznaczonych przez ludzi. Rozwiązania tego sztucznego „problemu” są banalne: czarne listy, sztuczne przydzielanie wag czy używanie tylko dodatnich współczynników, co też dokona nowy wspaniały zespół, by na wyjściu nie wychodziła „lepszość”, a „różnorodność”.

Edit: To, że dokonałem edycji posta po godzinie i dopisałem «„A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.» ktoś o progresywnych poglądach także może uznać za dyskryminacją. Przepraszam, zachowałem się jak szowinistyczny, ksenofobiczny, rasistowski, mizoginiczny administrator.

Share this post


Link to post
Share on other sites
6 hours ago, wilk said:

Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV.

Niczego nie przyjęła, po prostu tak było dotychczas.

6 hours ago, wilk said:

To absolutnie nie znaczy, że dyskryminuje kobiety

Z logiką na bakier. Już sam fakt, że portal, którego jesteś administratorem nazwał artykuł "Sztuczny rekruter Amazona dyskryminował kobiety", a ty twierdzisz, że wcale nie dyskryminował. Zapewne za chwilę zmienisz tytuł, żeby nie wyszło jak bardzo się w swoich poglądach mylisz.

6 hours ago, wilk said:

A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF

Wszyscy dobrze rozumiemy, że AI nie ma emocji,  nie jest seksistowskie, nie kieruje się ideologią prawicową itp. i nie musisz tych oczywizów tłumaczyć jak dzieciom. To z czym mamy tutaj do czynienia to jest po prostu rodzaj analizy dyskryminacyjnej, bardzo często stosowanej w finansach, gdzie odrzuca się, czyli dyskryminuje, firmy czy klientów, którzy nie spełniają określonych kryteriów. Jeśli np. klientem banku będzie matka wychowująca samotnie dziecko, to może być to jeden z negatywnych czynników przy przyznawaniu kredytu, bo ma mniejsze źródło finansów. I jest to zupełnie obiektywne, bo wytłumaczalne. Widać, że ty nawet nie słyszałeś o tym specjalistycznym przecież terminie, skoro mieszasz potoczne rozumienie dyskryminacji z formalną metodą odrzucania elementów zbiorów. Dodatkową przesłanką, że mam rację, będzie twoje pytanie "Gdzie tu sens, gdzie logika? " o sformułowanie, że algorytm dyskryminuje kobiety.

6 hours ago, wilk said:

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć.

Ni w ząb ty nie rozumiesz o czym mowa. Ja tylko zacytowałem twoje słowa:

On 10/14/2018 at 4:06 AM, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Nie mówię więc, że AI coś generalizuje, tylko że ty generalizuesz. Stwierdziłem, że o ile uczelnia jest obiektywnym sygnałem dla pracodawcy, o tyle z płcią już tak nie jest. To dlatego niektóre czynniki należy pozostawić, bo są obiektywnie zrozumiałe, a niektóre można cenzurować, jeśli nie mają żadnych logicznych podstaw. Czyli to człowiek musi nadać znaczenie danemu czynnikowi, czy rzeczywiście jest istotny. Dlatego twoje uogólnianie jest z góry błędne i wynika z dwóch możliwych przyczyn:

a) ideologicznych. Przesłanką będzie tu np. zdanie: "wirusowe zlewaczczenie zachodu.  Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni ".

b) nierozumienie, że działanie na danej próbie z przeszłości może obciążać wynik, jeśli się je stosuje do danych w przyszłości (kandydatki mogą się poprawić, tak jak giełda może się zmienić). Formalnie chodzi tu więc o podział badania na in-sample i out-of-sample, a także data snooping bias. Dla ciebie to są rzeczy obce, a robisz z siebie eksperta w tej dziedzinie.

 

Share this post


Link to post
Share on other sites
W dniu 13.10.2018 o 03:54, wilk napisał:

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

Jesne, z tą uwagą, że celem algorytmu nie jest dobieranie popularności kwapienia się, a to osiągnięto. 

Czy uważasz, że dowolna kobieta, startująca tam, jeżeli jest kobietą (bo tak wychodzi z algorytmu) powinna być skreślona, bo jest kobietą?

 

To zwykły błąd predykcji/klasyfikacji w zasadzie.

I nie chodzi o to aby w wynikach częściej wypadały kobiety, tylko aby jeżeli byłby by lepsze to powinny wypaść.

Dorabiacie filozofię do zwykłych błędów

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Jeff Bezos, właściciel Amazona i najbogatszy człowiek na świecie, ogłosił, że założy fundację walczącą ze zmianami klimatu i dofinansuje ją kwotą 10 miliardów dolarów. Bezos Earth Fund będzie finansowała naukowców, aktywistów, organizacje pozarządowe oraz inne działania mające na celu ochronę środowiska naturalnego, napisał miliarder.
      Będę współpracował z innymi zarówno w celu poszerzenia naszej wiedzy w tej kwestii jak i w celu opracowania nowych metod walki ze zmianami klimatu. Na start przeznaczam 10 miliardów dolarów i już latem tego roku zostaną przyznane pierwsze granty. Ziemia to nasze wspólne dobro, chrońmy ją razem, dodał.
      Przy okazji stwierdził, że jednym z motywów, dla których założył działającą w przemyśle kosmicznym firmę Blue Origin było spowodowanie, by miliony ludzi mogły żyć i pracować w przestrzeni kosmicznej. Na stronach firmy czytamy, że w Blue Origin wierzymy, że aby uchronić Ziemię, nasz dom, i zachować ją dla wnuków naszych wnuków, musimy udać się w przestrzeń kosmiczną po jej nieskończone zasoby i energię. Tak, jak rewolucja przemysłowa pobudziła handel, pomyślność gospodarczą, pozwoliła na zbudowanie nowych społeczeństw i metod szybkiego transportu, tak przestrzeń kosmiczna otwiera nam drogę do pomyślności przyszłych generacji.
      Działania Bezosa pochwalili i jednocześnie skrytykowali pracownicy Amazona skupieni w organizacji Amazon Employees For Climate Justice. Pochwalamy działalność dobroczynną Jeffa Bezosa, ale nie można jedną ręką dawać tego, co zabiera się drugą.  Ludzie na Ziemi muszą w końcu poznać odpowiedź, kiedy wreszcie Amazon przestanie wspierać przemysł wydobywczy, który niszczy Ziemię budując kolejne szyby naftowe i gazowe. Kiedy Amazon przestanie finansować zaprzeczające istnieniu globalnego ocieplenia think-tanki w rodzaju Competetive Enterprise Institute? Kiedy Amazon weźmie na siebie odpowiedzialność za zdrowie dzieci mieszkających w pobliżu jego magazynów i przestanie używać ciężarówek napędzanych silnikami diesla?, pytają pracownicy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa.
      Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley.
      Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością.
      Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej.
      Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych.
      Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna.
      Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów.
      Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań.
      Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo.
      Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amazon planuje powołać prezydenta Trumpa na świadka w pozwie przeciwko Pentagonowi. Koncern Bezosa twierdzi, że Pentagon nieuczciwie przyznał Microsoftowi kontrakt JEDI o wartości 10 miliardów dolarów. Zdaniem Amazona prezydent był osobiście zaangażowany w rozstrzygnięcie, a jego celem było uniemożliwienie przyznania kontraktu Amazonowi.
      Jak twierdzi w swojej autobiografii były sekretarz obrony, James Mattis, Trump osobiście prosił go by wyrzucić Amazon z grona firm starających się o przyznanie kontraktu.
      Jako, że Mattis nie był już sekretarzem obrony podczas ostatnich miesięcy przed przyznaniem kontraktu, Amazon chce też powołać na świadka obecnego sekretarza, Marka Espera.
      Amazon argumentuje, że bez przesłuchania prezydenta przed sądem nie będzie możliwe obiektywne i pełne zweryfikowanie twierdzeń, wysuwanych w sądowym wniosku przez firmę.
      Prezydent Trump wielokrotnie wyrażał swoją wolę wykorzystywania funkcji prezydenta i naczelnego dowódcy do wpływania na działania rządu, w tym na zakupy dokonywane przez agendy rządowe, w celach osobistych, stwierdził rzecznik prasowy Amazona. Pytanie brzmi, czy należy pozwalać prezydentowi Stanów Zjednoczonych na wykorzystywanie budżetu Departamentu Obrony do własnych celów osobistych i politycznych dodał.
      Faktem jest, że przyznanie kontraktu JEDI było sporym zaskoczeniem dla wielu specjalistów. Uważali oni bowiem, że pewnym zwycięzcą przetargu na Joint Enterprise Defense Infrastrukture jest Amazon. Faktem jest też, że prezydent Trump nie lubi Jeffa Bezosa, założyciela i dyrektora Amazona.
      W ubiegłym miesiącu Amazon złożył do sądu wniosek, w którym prosi, by ten nakazał Microsoftowi wstrzymanie wszelkich prac nad realizacją kontraktu do czasu, aż sąd rozstrzygnie pozew Amazona.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.
      Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.
      Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.
      Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.
      Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.
      Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.
      Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.
      Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.
      W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.
      Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.

      « powrót do artykułu
×
×
  • Create New...