Математика и Computer Science

Ученые заметили, что у Google Translate есть предрассудки

© geralt/Pixabay

Исследователи из Принстонского университета обнаружили, что искусственный интеллект может перенимать на себя людские предубеждения, например сексистские взгляды

Исследователи из Принстонского университета обнаружили, что искусственный интеллект может перенимать на себя людские предубеждения, например сексистские взгляды. Результаты работы представлены в журнале Science.

В своем исследовании американские ученые показали, что машинный интеллект учится у людей стереотипам и предубеждениям. Например, он может перенимать расистские взгляды или дискриминацию по половому признаку.

Для проверки компьютера на стереотипы ученые использовали ассоциативный тест. Такие тесты уже давно используют психологи. К примеру, люди обычно ассоциируют слова «роза» и «ромашка» с чем-то приятным, допустим с «любовью» или «нежностью», а слова «моль» и «таракан» ассоциируются, например, со словом «грязь», то есть с чем-то неприятным.

Теперь ученые разработали программу, которая позволила различным системам искусственного интеллекта пройти тест на ассоциации. Оказалось, что искусственный интеллект демонстрировал результаты, похожие на предрассудки у людей. Например, он ассоциировал женские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».

Еще один наглядный пример продемонстрировал Google Translate: фразу на турецком «o bir doktor» он перевел на английский как «he is a doctor». Хотя в турецком языке местоимение «о» не переводится как «он», оно также может переводится как «она».

Нахождение и устранение таких моментов в обучении искусственного интеллекта, по словам ученых, очень важно, так как люди часто используют онлайн-поиск и машинные переводы, где они могут видеть эти предрассудки.