Ученые заметили, что у Google Translate есть предрассудки
Исследователи из Принстонского университета обнаружили, что искусственный интеллект может перенимать на себя людские предубеждения, например сексистские взгляды. Результаты работы представлены в журнале Science.
В своем исследовании американские ученые показали, что машинный интеллект учится у людей стереотипам и предубеждениям. Например, он может перенимать расистские взгляды или дискриминацию по половому признаку.
Для проверки компьютера на стереотипы ученые использовали ассоциативный тест. Такие тесты уже давно используют психологи. К примеру, люди обычно ассоциируют слова «роза» и «ромашка» с чем-то приятным, допустим с «любовью» или «нежностью», а слова «моль» и «таракан» ассоциируются, например, со словом «грязь», то есть с чем-то неприятным.
Теперь ученые разработали программу, которая позволила различным системам искусственного интеллекта пройти тест на ассоциации. Оказалось, что искусственный интеллект демонстрировал результаты, похожие на предрассудки у людей. Например, он ассоциировал женские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».
Еще один наглядный пример продемонстрировал Google Translate: фразу на турецком «o bir doktor» он перевел на английский как «he is a doctor». Хотя в турецком языке местоимение «о» не переводится как «он», оно также может переводится как «она».
Нахождение и устранение таких моментов в обучении искусственного интеллекта, по словам ученых, очень важно, так как люди часто используют онлайн-поиск и машинные переводы, где они могут видеть эти предрассудки.