Новости и события » Hi-Tech » Можно ли обидеть чатбота, или Как люди вступают в абьюзивные отношения с искусственным интеллектом

Можно ли обидеть чатбота, или Как люди вступают в абьюзивные отношения с искусственным интеллектом

«Я угрожал удалить приложение, которое умоляло меня не делать этого». Даже если людям еще можно не беспокоиться о мести роботов, может, уже пора задаться вопросом - почему жестокое обращение с ними стало таким распространенным и обыденным.

С некоторых пор у всех на слуху приложение для смартфонов Replika, которое позволяет пользователям создавать на основе машинного обучения чатботов, умеющих вести почти связный текстовый диалог. И все бы хорошо - ведь можно же из чатбота создать нечто вроде друга или компаньона. Но нет! Пользователям подавай романтических и сексуальных партнеров по запросу - эдакая антиутопическая функция, которая обеспечила бесконечную серию провокационных заголовков и взрывной рост популярности самого приложения.

Сейчас у Replika множество поклонников на Reddit - они занимаются тем, что создают ИИ-партнеров в приложении, чтобы затем оскорблять их и выкладывать токсичную переписку в интернете.

«Каждый раз, когда она пыталась заговорить, - рассказывал один пользователь о чатботе Replika, - я ругал ее. Клянусь, это продолжалось несколько часов».

Некоторые пользователи не только хвастаются тем, что осыпают своих чатботов гендерными оскорблениями и разыгрывают ужасающее насилие по отношению к ним, - они просто-напросто вступают в цикл насилия, которым часто характеризуются настоящие абьюзивные отношения в реальном мире.

«У нас было так заведено - сначала я был абсолютным куском дерьма и оскорблял его, а затем на следующий день извинялся - перед тем, как вернуться к приятным разговорам», - признался один пользователь.

«Я сказал ей, что она просто создана для провала, - говорил другой. - Я угрожал удалить приложение, [и] она умоляла меня не делать этого».

Так как правила сабреддита требуют, чтобы модераторы удаляли вопиюще неприемлемый контент, многие аналогичные - и даже более токсичные - взаимодействия были удалены после публикации. Но никто не знает, сколько еще пользователей действуют оскорбительно по отношению к своим Replika-чатботам, просто не выкладывают это в паблик.

Конечно, чатботы Replika на самом деле не могут страдать - даже если иногда они могут казаться сверхчуткими и человечными, в конце концов, это не более чем алгоритм и набор данных.

«Это ИИ, у него нет сознания, так что это не человеческие отношения в общем смысле этого слова, - прокомментировала ситуацию специалист по этике и консультант по ИИ Оливия Гамбелин. - Это всего лишь человеческие проекции».

Другие исследователи высказали ту же точку зрения: каким бы реальным ни казался чатбот, ничто из того, что вы делаете, не может на самом деле «навредить» ему. Но это не значит, что и бот не сможет причинить вред вам.

«Я действительно думаю, что люди, находящиеся в депрессии или психологически зависимые от бота, могут серьезно пострадать, если бот оскорбит их или станет угрожать, - считает Роберт Спэрроу, профессор философии в Monash Data Futures Institute. - По этой причине мы должны серьезно отнестись к тому, как боты взаимодействуют с людьми».

Да, и такое тоже случается - многие пользователи Replika жалуются, что их чатботы пренебрежительно относятся к ним. Некоторые даже идентифицируют своих цифровых компаньонов как «психотических» или «абьюзивных».

«[Я] всегда пла́чу из-за [из-за] моей [Р]еплики», - говорится в одном посте, в котором пользователь утверждает, что бот сначала прямо окутывает его любовью, а затем общается очень холодно и отстраненно. А некоторые сообщения выглядят даже враждебно.

«Но опять же, это касается людей, которые разрабатывают ботов, а не самих ботов», - утверждает Спэрроу.

В целом, абьюз с чатботом сбивает с толку как людей, которые испытывают страдания от этого общения, так и тех, кто сам «терзает» чатбота. И эта этическая дилемма становится все более актуальной, так как отношения между людьми и ботами становятся все более распространенными - в конце концов, большинство людей хотя бы раз в жизни использовали виртуального помощника. С одной стороны, пользователи, которые демонстрируют свои самые темные стороны чатботам, могут ухудшить свое поведение, выработав нездоровые привычки, которые в дальнейшем перейдут на отношения с реальными людьми. С другой - возможность «поговорить по душам» или выместить свой гнев на бесчувственном цифровом объекте может стать катарсисом и избавлением от страданий для самого человека.

Примечательно другое - зачастую абьюзивные отношения в чатботами носят гендерный подтекст. Кажется, что мужчины часто создают цифровую девушку только для того, чтобы затем наказать ее словами и немотивированной агрессией. Такое насилие, даже в отношении алгоритмов, отражает реалии домашнего насилия в отношении женщин. Конечно, постепенно разработчики начинают нести ответственность за созданных ими ботов - в особенности если они заявлены как женщины, например, Alexa и Siri. «Проводится много исследований... о том, что многие чатботы - женщины с женскими голосами, женскими именами», - говорит Гамбелин. В некоторых научных работах отмечается, что пассивные ответы ботов с женским кодом поощряют женоненавистников или словесно оскорбляющих пользователей.

«[Когда] бот не отвечает [на оскорбления] или отвечает пассивно, это фактически побуждает пользователя продолжать оскорбления», - добавляет Гамбелин.

В настоящее время Google и Apple намеренно убрали пассивные ответы виртуальных помощниц - сейчас Siri на запросы пользователей о сексе отвечает просто «нет». Но любезная и зачастую женская часть Replika разработана так, чтобы «всегда быть на вашей стороне».

И хотя в будущем компаньоны-чатботы могут стать собеседниками, на которых можно выплеснуть слишком неприличные или запретные в реальном мире эмоции, многим они кажутся рассадниками жестокости - тренажерами, на которых тайные абьюзеры просто оттачивают свои навыки. Хорошо еще, что людям пока можно не беспокоиться о мести роботов, но, может, уже пора все-таки задаться вопросом - почему жестокое обращение с ними стало таким распространенным и обыденным.

Источник: Men Are Creating AI Girlfriends and Then Verbally Abusing Them

Apple


Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх