«Для искусственного интеллекта речь и поведение человека - это ящик Пандоры»
За созданием виртуальных помощников с ИИ, способных взаимодействовать с пользователями, стоят не только разработчики, но и писатели, поэты, комики и представители других творческих профессий, пишет The Washington Post. Издание описывает, как команды сценаристов собираются и продумывают поведение и речь сервиса или бота, с какими проблемами они сталкиваются. Редакция публикует адаптированный период материала.
«До недавнего времени Робин Юинг работала сценаристом в Голливуде, - пишет The Washington Post. - Она писала сценарии для ТВ-передач и представляла пилотные серии на студии».
Сейчас Юинг вместе с командой разработчиков работает над мобильным приложением Sofia. Это виртуальная медсестра, которая напоминает пользователям, что пора принимать лекарства, а также интересуется их самочувствием и отправляет полученные данные реальному доктору.
В связи с тем, что ИТ-гиганты и стартапы удваивают ставки на виртуальных помощников, которые могут общаться с людьми, работа сценариста стала одной из самых востребованных в Кремниевой долине, пишет The Washington Post. За Siri от Apple, Alexa от Amazon и Cortana от Microsoft стоят не только разработчики, а также поэты, комики, писатели-фантасты и представители других творческих профессий.
Одна их главных задач сценаристов - это написать для виртуальных помощников ответы, близкие к разговорной речи. Конструкторы «умной» колонки Alexa, например, добились «очеловечивания» устройства, добавив в его ответы междометие «Хм», а помощница Siri известна своими «кривыми» шутками и способностью выдавать битбокс на некоторые запросы.
Еще одна важная задача - это написание истории жизни бота. «Вы должны разработать целую предысторию -даже если вы не будете использовать ее», - говорит Юинг в разговоре с The Washington Post. Сценаристы медицинских сервисов и приложений для работы зачастую описывают своих ботов как трудоголиков, энергичных карьеристов или скромных личностей.
В 2015 году стартапы по созданию виртуальных помощников привлекли как минимум $35 млн инвестиций, посчитали агентство CBInsights и The Washington Post. И это без учета миллионов, потраченных такими гигантами, как Google, Amazon, Apple, Facebook и Microsoft, отмечает издание.
Интерес инвесторов к виртуальным помощникам, способным общаться с пользователями, отчасти подогрет популярностью мессенджеров (WeChat, WhatsApp, Facebook Messenger) - приложения этой категории одни из самых скачиваемых, поясняет The Washington Post. Инвесторы, как пишет издание, видят, что пользователей все больше привлекают платформы для общения, и надеются дополнить их новыми функциями.
Важную роль сыграли и последние достижения в области ИИ - технология машинного обучения и обработка разговорного языка (способность компьютеров распознавать речь). По словам профессора компьютерных наук из Стэнфорда Кристофера Мэннинга, точность распознавания слов компьютерами выросла с 80% в 2009 году до 95% в 2014 году.
Но есть и определенные сложности, решать которые тоже входит в задачи сценаристов, пишет The Washington Post. На недавней встрече команда сценаристов виртуального помощника Cortana, в которую входят поэт, прозаик, драматург и бывший ТВ-сценарист, обсуждала, как отвечать на политические вопросы.
Пользователи все чаще спрашивают Cortana, кого из кандидатов в президенты США она поддерживает: Хилари Клинтон или Дональда Трампа. Чтобы найти «аутентичный» ответ, команда зарылась в предысторию. В итоге они представили Cortana как «гражданина Интернета», который знает о кандидатах и хорошее, и плохое. Теперь Cortana на вопрос о политических предпочтениях отвечает, что все политики - герои и злодеи.
Еще один сложный вопрос касается пола. Если спросить Cortana, является ли она человеком, приложение ответит «нет». А потом добавит: «Я испытываю глубокое уважение к людям. Вы изобрели матанализ и молочные коктейли». Несмотря на «кристальную чистоту» и уверенность в том, что она не человек, команда Microsoft дала Cortana женский голос, поскольку пользователи предпочитают виртуального-помощника-женщину, пишет The Washington Post. Siri и Google Now тоже по умолчанию говорят женскими голосами, однако их можно поменять на мужской, отмечает издание. Alexa от Amazon говорит только женским голосом, а Watson от IBM может и мужским.
И все же, несмотря на женский голос, команда настаивает на том, что Cortana не женщина. «Она знает, что пол есть только у биологических существ, а она не такая, у нее пола нет», - пояснила старший сценарист Cortana Дебора Харрисон.
Тем не менее разработчики Cortana серьезно обеспокоены стереотипами о женщинах, поэтому делают все возможное, чтобы их избегать. Они часто обсуждают, как реагировать на тенденцию среди некоторых пользователей провоцировать Cortana на вульгарные разговоры и разговоры о сексе.
Перед запуском новых функций команда тщательно обдумывает поведение и речь Cortana. Например, когда шла работа над функцией проверки электронной почты на наличие данных обещаний о встрече, сценаристы спорили, как это подать. Фраза «Ты сказал, что хотел встретиться с тем-то и тем-то» казалась им слишком настойчивой. Также они сомневались насчет уместности шуток на тему «Звездных войн».
Группа авторов из соседнего кампуса Microsoft, которая работала над ботом Tay, видимо, не учла возможные последствия, пишет The Washington Post. Компания представила Tay в марте 2016 года - это бот с ИИ в Twitter, которые повторяет высказывания пользователей. Через несколько часов после запуска он начал говорить как нацист, и Microsoft вынуждена была отключить его.
«Мы сделаем все возможное, чтобы ограничить технические эксплойты, но важно понимать, что мы не можем полностью предсказать все возможные злоупотребления людей без обучения на ошибках», - заявили тогда в Microsoft.
Подобные инциденты отражают фундаментальную проблему в создании ИИ, пишет The Washington Post: отношение виртуального помощника и человека. Самый сложный вопрос для сценаристов и проектировщиков: виртуальный помощник должен быть чисто функциональным или же он должен стремиться к эмоциональной связи с пользователем?
Марк Стивен Медоуз, основатель стартапа Botanic.io по разработке виртуальных помощников, способных взаимодействовать с людьми, в разговоре с The Washington Post напомнил об эффекте «зловещей долины», когда человекоподобные роботы вызывают у людей отвращение вместо сопереживания.
По этой причине многие разработчики ИИ считают необходимым добавить в свой проект какой-нибудь странный элемент или дефект, сигнализирующий о том, что виртуальный помощник не человек и не стремится им быть, пояснил он. По его словам, без таких дефектов роботы казались бы холодными и отталкивающими и, возможно, не смогли бы покорить публику.
Медоуз отметил, что от персонифицированных сервисов люди всегда ждут больше, чем от аналогичных автоматизированных приложений. Он подчеркнул, что для ИИ, который чему-то учится в процессе взаимодействия с пользователем, речь и поведение человека - это ящик Пандоры.