01
А
Астрономия
02
Б
Биология
03
Г
Гуманитарные науки
04
М
Математика и CS
05
Мд
Медицина
06
Нз
Науки о Земле
07
С
Сельское хозяйство
08
Т
Технические науки
09
Ф
Физика
10
Х
Химия и науки о материалах
Математика и Computer Science
14 апреля

Ученые заметили, что у Google Translate есть предрассудки

geralt/Pixabay

Исследователи из Принстонского университета обнаружили, что искусственный интеллект может перенимать на себя людские предубеждения, например сексистские взгляды. Результаты работы представлены в журнале Science.

В своем исследовании американские ученые показали, что машинный интеллект учится у людей стереотипам и предубеждениям. Например, он может перенимать расистские взгляды или дискриминацию по половому признаку.

Для проверки компьютера на стереотипы ученые использовали ассоциативный тест. Такие тесты уже давно используют психологи. К примеру, люди обычно ассоциируют слова «роза» и «ромашка» с чем-то приятным, допустим с «любовью» или «нежностью», а слова «моль» и «таракан» ассоциируются, например, со словом «грязь», то есть с чем-то неприятным.

Теперь ученые разработали программу, которая позволила различным системам искусственного интеллекта пройти тест на ассоциации. Оказалось, что искусственный интеллект демонстрировал результаты, похожие на предрассудки у людей. Например, он ассоциировал женские имена с такими словами, как «родители» и «свадьба», а мужские имена — со словами «профессиональный» и «зарплата».

Еще один наглядный пример продемонстрировал Google Translate: фразу на турецком «o bir doktor» он перевел на английский как «he is a doctor». Хотя в турецком языке местоимение «о» не переводится как «он», оно также может переводится как «она».

Нахождение и устранение таких моментов в обучении искусственного интеллекта, по словам ученых, очень важно, так как люди часто используют онлайн-поиск и машинные переводы, где они могут видеть эти предрассудки.

Комментарии

Все комментарии
Обсуждаемое