Люди склонны больше доверять роботам, способным ошибаться
В июне 2017 года ученые из Калифорнийского университета в Беркли создали нейросеть, которая способна «научить» роботов удерживать объекты любой формы с точностью до 99%. Эта технология улучшит работу многих роботов: промышленных, военных, сельскохозяйственных. Однако есть категория роботов, которой безупречная точность, скорее всего, не нужна.
Новое исследование, проведенное учеными из Австрии и Великобритании, показало: люди предпочитают взаимодействовать с роботами, которые время от времени ошибаются. Этот вывод касается работы социальных роботов-компаньонов. Такие роботы служат «помощниками»: выполняют несложные бытовые задачи (например, перемещение предметов), транслируют фильмы и аудиокниги, ищут необходимую информацию в Интернете. Иногда они способны интерпретировать человеческую речь.
Многие социальные роботы создаются для конкретных категорий пользователей. Одни предназначены для бытовой помощи пожилым людям, другие помогают детям с расстройствами аутистического спектра развивать когнитивные и двигательные навыки. Третьи, «терапевтические роботы», призваны снижать стресс у пациентов больниц. Одна из главных задач таких устройств - поддерживать коммуникацию с человеком. Важно, чтобы робот не только распознавал речь и другие сигналы, но и вызывал определенную степень доверия у пользователя.
В исследовании приняли участие 45 человек в возрасте от 16 до 76 лет. Ученые предложили участникам пообщаться с роботом-андроидом NAO. В ходе первого эксперимента человек беседовал с роботом, во втором эксперименте они вместе располагали детали LEGO определенным образом. Часть роботов запрограммировали так, чтобы они иногда совершали ошибки. Например, робот мог «подсказать» человеку бросить деталь конструктора на пол, вместо того чтобы положить ее на стол. Затем роботы распознавали реакцию на неправильную подсказку, если человек смеялся или колебался перед выполнением инструкции. Получив реакцию на свою ошибку, робот «исправлялся». Другая часть роботов действовала безупречно.
По завершении экспериментов участники ответили на несколько вопросов о взаимодействии с роботами. Анализ данных опроса показал, что роботы, способные ошибаться и исправлять свои ошибки, понравились людям значительно больше. Исследователи связали это с «эффектом оплошности» (pratfall effect). Это явление, при котором привлекательность того, кто допустил ошибку, растет или падает в зависимости от его компетентности.
По словам ученых, эти данные стоит учитывать при разработке новых программ для социальных роботов.
Исследование опубликовано в журнале Frontiers in Robotics and AI.