Опубликовано 14 ноября 2019, 20:02

Воспринимаемые в качестве людей роботы оказались более убедительны

Воспринимаемые в качестве людей роботы оказались более убедительны

© Philippe Wojazer/Reuters

Международная исследовательская группа выяснила, как меняются взаимодействия между людьми и роботом, если последний становится похожим на человека. Статья ученых была опубликована в журнале Nature Machine Intelligence.

Искусственные голоса Siri, Alexa или Ассистента Google и их часто неловкие ответы не дают сомневаться в том, что мы говорим не с реальным человеком. Последние технологические прорывы, которые помогли создать искусственный интеллект с обманчиво реалистичными человеческими голосами, теперь позволяют ботам выдавать себя за людей. Это приводит к новым этическим проблемам: является ли подражание ботов людям обманом? Должны ли такие ситуации быть прозрачными? Предыдущие исследования показали, что люди предпочитают не доверять интеллектуальным ботам. Но что, если люди просто не заметят, что разговаривают с роботом? Будут ли они в этом случае доверять ему как человеку?

Этим вопросом задалась исследовательская группа из Объединенных Арабских Эмиратов, США и Германии. В рамках своего исследования ученые опросили почти 700 участников, поставив их в условия дилеммы заключенного, где нужно было сотрудничать или с человеком, или с искусственным интеллектом.

Решающим аспектом эксперимента было то, что исследователи дали некоторым участникам ложную информацию о личности их игрового партнера. Некоторым участникам, взаимодействующим с человеком, было сказано, что они играют с ботом, и наоборот. Это позволило исследователям изучить, являются ли люди предубежденными против партнеров, которых они принимают за ботов, и имеет ли это значение для эффективности компьютерных алгоритмов.

Полученные результаты показали, что боты, олицетворяющие людей, были более успешны в убеждении своих игровых партнеров для сотрудничества. Однако, как только они раскрыли свою истинную личность, уровень доверия снижался. Если перевести данные исследования в рамки реального мира, то окажется, что, например, справочные службы, управляемые ботами, могут оказывать помощь более быстро и эффективно, если им будет разрешено маскироваться под людей. Исследователи отмечают, что необходимо широкое общественное обсуждение различий между случаями взаимодействия человека и машины, которые требуют прозрачности, и теми, где ключевой фактор — эффективность.

Понравился материал? Добавьте Indicator.Ru в «Мои источники» Яндекс.Новостей и читайте нас чаще.