LINUX.ORG.RU
ФорумTalks

Амазон отказался от бота-рекрутера потому что его искусственный интеллект оказался сексистом

 , , ,


2

1

Специалисты по изучению машин Амазонки Inc обнаружили большую проблему: их новому механизму рекрутинга не понравились женщины.

Экспериментальный инструмент найма компании использовал искусственный интеллект для оценки кандидатов на работу в диапазоне от одной до пяти звезд - так же, как покупатели оценивают продукты на Amazon.

Но к 2015 году компания осознала, что ее новая система не оценивает кандидатов на должности разработчиков программного обеспечения и других технических должностей гендерно-нейтральным образом.

Это связано с тем, что компьютерные модели Amazon были обучены проверять кандидатов, наблюдая закономерности в резюме, представленном компании за 10-летний период. Большинство людей приходилось на мужчин, что отражало мужское доминирование в технологической отрасли.

Система Амазонки учила себя, что кандидаты-мужчины предпочтительнее. Он оштрафовал резюме, в который входило слово «женщины». И это понизило выпускников двух женских колледжей.

Компания в конечном итоге расформировала команду, потому что руководители потеряли надежду на проект.

https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-...

☆☆☆

Ответ на: комментарий от entefeed

При чем тут я-то, и вообще гендеры.

Вы так бодро пошли клеймить своих любимых воображаемых врагов, что не успели даже подумать что это лишь маленький частный пример. И то что они зацепились за слово women - просто дань моде.

Machine Learning - это статистический анализ, он работает на распознавание стереотипов. Поэтому если покопать наверняка такой же bias там обнаружится в плане возраста, цвета кожи или владения русским языком.

И вы никак от него не защищены, у вас даже своих феминисток нет, чтобы задать работодателям подобные же вопросы.

alpha ★★★★★
()

2014 год вычеркнул для меня первую половину ЛОРа из списка условно адекватных людей, 2018 вычеркивает вторую...

buddhist ★★★★★
()
Ответ на: комментарий от alpha

Поэтому если покопать наверняка такой же bias там обнаружится в плане возраста, цвета кожи или владения русским языком.

Это сильно зависит от методологии обучения, столь безапелляционно может заявлять только профан, прослушавший полторы лекции.

Sadler ★★★
()
Ответ на: комментарий от Sadler

Это сильно зависит от методологии обучения

Собственно ты сказал то же что и я. Только добавил в голос многозначительности побольше.

alpha ★★★★★
()
Ответ на: комментарий от Shaman007

Как только ты волосы в фиолетовый покрасишь.

entefeed ☆☆☆
() автор топика

сексистом

Пожалуйста, не останавливайтесь. Я хочу видеть развал западного мира в онлайн-трансляции.

svinorezka
()
Ответ на: комментарий от goingUp

Пол он не определял, просто определил, что не стоит брать кандидатов со словом women’s в резюме.

Ну «подшаманить» очистку текста (включив в стоп-лист слов все, что относится к полу).

Solace ★★
()

Так я не понял, ИИ отбраковал женские резюме потому, что большинство сотрудников были мужчинами или потому что женщины хуже работали?

cvs-255 ★★★★★
()
Ответ на: комментарий от Sadler

но это не помогло. Что было бы ещё забавнее.

Ну если для какой-нибудь статистической модели важно, чтобы был примерно гаусс, а на самом деле данные содержат 2 «колокольчика» (м и ж), то эта модель работать не будет

cvs-255 ★★★★★
()
Ответ на: комментарий от cvs-255

Полно вам, сударь, это же не линрег с его assumptions на нормальность остатков и прочими вещами.

Solace ★★
()
Ответ на: комментарий от cheetah111v

нетолерантного бога...

Вот это интересно, учитывая, что сжвшные леваки обычно топят за мигрантов, мультикультурализм™, против исламофобии™, хотя в их культуре положение женщины где-то на уровне верблюда, а всяких геев вообще расстрелять

TheAnonymous ★★★★★
()
Ответ на: комментарий от alpha

И в общем-то это показывает в принципе всю несостоятельность современного подхода найма на работу с помощью всяких управленцев по найму и шаблонов.

dikiy ★★☆☆☆
()
Ответ на: комментарий от dikiy

несостоятельность современного подхода найма на работу с помощью всяких управленцев по найму и шаблонов

Наоборот же. Статистика будет предпочитать уже виденное гипотетическому оптимуму. Только всякие управленцы и идеологически обоснованные шаблоны могут вытянуть систему из статусквы и т.о. что-то улучшить(ну, или ухудшить).

DonkeyHot ★★★★★
()
Ответ на: комментарий от DonkeyHot

Статистика сосет, когда нужен специалист реальный, потому что он вполне может разрывать шаблон. А может и не разрывать.

А два, статистика при приеме на работу противоречит социальным понятиям.

dikiy ★★☆☆☆
()
Ответ на: комментарий от goingUp

Я конечно не верю, что именно из-за этого свернули программу, скорее всего она работала очень плохо, а эта история просто красивая байка.

Там в статье так и написано, что этот «ИИ» вообще работал хреново, выбирал некомпетентных людей.

seiken ★★★★★
()

Походу феминистки кинули предъяву и теперича амазонския ойтишнеге вынуждены аправдываца.

Deleted
()

А что, нальзя просто скармливать этой системе обезличенное и обесполеное резюме для оценки? А то завтра выяснится что она отклонит какого-нибудь Барака Хусейна Обаму, решив что он араб и может стать террористом.

RiseOfDeath ★★★★
()

Я за роботов. Надоели эти куски мяса со своими биопроблемами. Надо вернуть ии на место а всех остальных уволить в тюрьму.

crutch_master ★★★★★
()
Последнее исправление: crutch_master (всего исправлений: 1)
Ответ на: комментарий от imul

Конкретно об Амазоне мне есть что напеть. Но мне лень. Пускай уже феминистки занимаются, ладно уж =)

Deleted
()
Ответ на: комментарий от Im_not_a_robot

Это ведь легко пофиксить было просто игнорируя пол.

Оказывается, игнорировать пол не так просто. Почитай статью - там перечисляют как минимум два косвенных признака, как его определить из текста, и программа зацепилась в том числе за них.

AEP ★★★★★
()

Такая потенциальная тема для срача, но нет. Это печально.

ass ★★★★
()
Вы не можете добавлять комментарии в эту тему. Тема перемещена в архив.