Ученые из Великобритании и Австрии провели исследование реакции людей при взаимодействии с роботом. Сравнив поведение людей при взаимодействии с роботом, который совершает ошибки, и роботом, который оперирует безупречно, исследователи пришли к выводу, что мелкие дефекты в поведении искусственного интеллекта делают его более привлекательным в глазах людей. Статья с исследованием опубликована в журнале Frontiers in Robotics and AI.
В последние годы искусственный интеллект, направленный на взаимодействие с людьми, стал активно применяться во многих сферах человеческой жизни: Amazon Alexa, например, помогает пользователям управлять домом, автомобилем и даже холодильником. Такие роботы далеки от безошибочного оперирования, поэтому исследователи взаимодействий человека с роботом (human-robot interaction, коротко HRI) активно изучают социальный искусственный интеллект in situ, в общении с людьми. Однако, главная цель подобных исследований — выявить лучшие стратегии безошибочной работы роботов, но исследования дефектного поведения при взаимодействии с людьми также могут быть полезны. Изучив социальные сигналы при совершении ошибки, робот может понять, что он сделал что-то не так, а также дать обратный сигнал о том, что дефект выявлен и ведется активная работа над его устранением.
Авторы новой работы изучили реакцию людей при наблюдении за роботом, совершающим ошибки. Так как взаимодействие человек-робот во многом основывается на обычном социальном взаимодействии между людьми, исследователи проверили «эффект оплошности», в соответствии с которым привлекательность людей увеличивается после совершения ими ошибки. Основываясь на этом эффекте, авторы выдвинули три гипотезы, в соответствии с которыми робот, совершающий ошибки, считается:
Для проверки гипотез исследователи изучили реакцию людей при взаимодействии с роботом-гуманоидом NAO, выполнявшим два разных задания. Первое задание заключалось в небольшом интервью, во время которого робот задавал участнику эксперимента простые вопросы (например, «Вы уже общались с роботом?»), во время второго задания робот просил человека составлять различные фигуры из конструктора LEGO. Каждый из 45 испытуемых участвовал во взаимодействии с роботом при одном из двух условий:
Ошибки, совершенные роботом, делились на два вида: технические ошибки (например, прерывание фразы или повторение одного слова несколько раз) и ошибки социального взаимодействия (например, задержка перед произнесением фразы или просьба немедленно бросить кубики на пол).
Исследователи записали общение участников эксперимента с роботом на видео с целью изучить их реакцию, а также попросили их заполнить опросник Godspeed, направленный на изучение восприятия роботов людьми по трем шкалам (привлекательность, антропоморфность и интеллект робота).
Результаты опроса показали, что роботы, совершившие ошибки, показались участникам значительно (p = 0,044) более привлекательными, чем роботы, которые работали безупречно. Показатели антропоморфности и интеллекта роботов не отличались (p = 0,109 и p = 0,723 соответственно) между условиями.
Анализ видеозаписей взаимодействия человека и робота показал, что люди подают невербальные социальные сигналы (например, меняют выражение лица) чаще (p = 0,032) при совершении роботом ошибки. На основании этого ученые сделали вывод, что участники понимали, когда в работе робота были сбои.
Опрос, проведенный после окончания эксперимента, выявил, что семь участников, наблюдающих на роботом, совершающим ошибки, назвали его поведение неприятным и сбивающим с толку, в то время как десять человек положительно отозвались о работе робота с дефектами, назвав его забавным и дружелюбным.
Результаты эксперимента обращают внимание на возможную пользу недостатков в программном обеспечении искусственного интеллекта. Сохранение дефектов, проявляющихся при социальном взаимодействии между роботом и человеком, может позволить инженерам сделать свои творения более приятными в общении, не делая их при этом менее умными в глазах людей.
О доверии людей к роботам в опасных ситуациях (причем даже в тех случаях, когда роботы дают нелогичные указания) вы можете прочитать здесь, а о том, как роботы научились располагать к себе людей с помощью печенья — здесь.
Елизавета Ивтушок