01
А
Астрономия
02
Б
Биология
03
Г
Гуманитарные науки
04
М
Математика и CS
05
Мд
Медицина
06
Нз
Науки о Земле
07
С
Сельское хозяйство
08
Т
Технические науки
09
Ф
Физика
10
Х
Химия и науки о материалах
Технические науки
7 сентября

У искусственного интеллекта нашли склонность к предрассудкам

EgudinKa/Getty Images

У искусственного интеллекта могут появляться предрассудки, когда он «общается» с другими алгоритмами. К такому выводу пришли ученые, наблюдая за группой нескольких систем с искусственным интеллектом, которые взаимодействовали друг с другом. Результаты их исследования опубликованы в журнале Scientific Reports.

Обычно считается, что предрассудки, то есть мнения, основанные на стереотипах, а не на рациональном мышлении, характерны только для человеческого сознания. Однако некоторые исследования уже показали, что искусственный интеллект тоже может формировать предрассудки, обучаясь у людей. Так, твиттер-бот Тэй, созданный компанией Microsoft, через сутки после общения с живыми людьми в Twitter стал выдавать расистские замечания (сейчас аккаунт переведен в приватный режим, его твиты недоступны. Об этой истории можно почтитать на «Медузе»). В новом исследовании ученые из Кардиффского университета (Великобритания) и Массачусетского технологического института (США) показали, что предрассудки могут появляться у роботов и без непосредственного участия человека.

В рамках исследования ученые создали искусственный интеллект и размножили его, то есть сделали несколько виртуальных «личностей». Затем в получившемся «коллективе» ученые запустили игру: одна «личность» встречает другую, и они могут пожертвовать друг другу сумму условных денег или не делать этого. Искусственный интеллект принимает решение о пожертвовании на основе собственной тактики и мнения об оппоненте.

Авторы запустили симуляцию несколько тысяч раз, и с каждым разом виртуальные «личности» все больше и больше учились у других членов «коллектива». В результате внутри него появились отдельные группы, враждебно относящиеся друг к другу. Авторы исследования считают, что эти результаты показывают, как в человеческом обществе распространяются стереотипы, и в дальнейшем планируют использовать компьютерную симуляцию для изучения этого социального явления. Например, что будет, если в виртуальный «коллектив» поместить несколько «личностей», которые будут сильно отличаться от остальных.

Понравился материал? Добавьте Indicator.Ru в «Мои источники» Яндекс.Новостей и читайте нас чаще.

Комментарии

Все комментарии
Обсуждаемое