У искусственного интеллекта нашли склонность к предрассудкам
У искусственного интеллекта могут появляться предрассудки, когда он «общается» с другими алгоритмами. К такому выводу пришли ученые, наблюдая за группой нескольких систем с искусственным интеллектом, которые взаимодействовали друг с другом. Результаты их исследования опубликованы в журнале Scientific Reports.
Обычно считается, что предрассудки, то есть мнения, основанные на стереотипах, а не на рациональном мышлении, характерны только для человеческого сознания. Однако некоторые исследования уже показали, что искусственный интеллект тоже может формировать предрассудки, обучаясь у людей. Так, твиттер-бот Тэй, созданный компанией Microsoft, через сутки после общения с живыми людьми в Twitter стал выдавать расистские замечания (сейчас аккаунт переведен в приватный режим, его твиты недоступны. Об этой истории можно почтитать на «Медузе»). В новом исследовании ученые из Кардиффского университета (Великобритания) и Массачусетского технологического института (США) показали, что предрассудки могут появляться у роботов и без непосредственного участия человека.
В рамках исследования ученые создали искусственный интеллект и размножили его, то есть сделали несколько виртуальных «личностей». Затем в получившемся «коллективе» ученые запустили игру: одна «личность» встречает другую, и они могут пожертвовать друг другу сумму условных денег или не делать этого. Искусственный интеллект принимает решение о пожертвовании на основе собственной тактики и мнения об оппоненте.
Авторы запустили симуляцию несколько тысяч раз, и с каждым разом виртуальные «личности» все больше и больше учились у других членов «коллектива». В результате внутри него появились отдельные группы, враждебно относящиеся друг к другу. Авторы исследования считают, что эти результаты показывают, как в человеческом обществе распространяются стереотипы, и в дальнейшем планируют использовать компьютерную симуляцию для изучения этого социального явления. Например, что будет, если в виртуальный «коллектив» поместить несколько «личностей», которые будут сильно отличаться от остальных.
Понравился материал? Добавьте Indicator.Ru в «Мои источники» Яндекс.Новостей и читайте нас чаще.