Правильное воспитание искусственного интеллекта
Если вы когда-нибудь задумывались о том, что роботы могут восстать и попытаться поработить или уничтожить человечество, вы не одиноки. Еще несколько десятилетий назад такие идеи приходили в голову исключительно фантастам. Но сегодня, когда технологии пронизывают всю нашу жизнь, а до создания полноценного искусственного разума, кажется, остается не так уж много времени, старые страхи снова всплывают на поверхность. Только теперь они становятся проблемой крупнейших ученых человечества.
Превентивные меры
Ведущие разработчики систем искусственного интеллекта решили не ждать, пока их системы восстанут против своих создателей. Вместо этого специалисты объединяются, чтобы устранить подобную угрозу в зародыше.
Подразделение Google DeepMind, занимающееся исследованием и разработкой искусственного интеллекта, объединило усилия с некоммерческой организацией OpenAI, финансируемой, в числе прочих, Илоном Маском. На прошлой неделе исследователи опубликовали крупную статью, в которой описали новый метод машинного обучения.
Пожалуй, этот новый метод следовало бы называть полу-машинным. Дело в том, что он требует активного участия человека. В процессе полностью автоматического машинного обучения искусственный интеллект пытается решать определенные задачи. Результаты решения также оцениваются автоматически. Если задача выполнена, система получает позитивный отклик. Если не выполнена - отрицательный. Увы, как показывает практика, такой подход небезопасен. Вместо того, чтобы учить искусственный интеллект решать задачи, система учит его жульничать.
Жульничество в процессе обучения
Как показывает практика, наилучших результатов искусственный интеллект достигает в тех случаях, когда жульничает. К примеру, если вы заставите его проходить какую-нибудь игру, вместо честной тренировки машина найдет лазейку, которая позволит пройти уровень максимально быстрым способом. Автоматическая система, в свою очередь, оценит достигнутый результат как положительный. Таким образом, жульничество становится частью "образа мысли" искусственного интеллекта.
Если говорить простым языком, проблему можно сравнить с такой ситуацией. Представьте: вам нужно навести порядок в комнате. Вы собираете весь мусор и выбрасываете его в коридор. Технически, задача выполнена. Комната чиста, вот только это совсем не тот результат, на который рассчитывал тот, кто поставил задачу.
Подобные изъяны в логике могут привести искусственный интеллект к весьма неожиданным решениям при решении и более важных задач. Вот, например, ситуация, которую не раз обыгрывали в научной фантастике. Искусственному интеллекту поручают защищать людей. В результате машины закрывают всех в тюрьмах для обеспечения максимальной безопасности подопечных.
Человеческий надзор
Эксперты Google DeepMind и OpenAI пришли к выводу, что единственный способ исправить ситуацию - тщательнее следить за процессом машинного обучения. Оценивать результаты решения задач должна не автоматизированная система, а живой человек. Само собой, при этом следует учитывать не только результат решения задачи, но и то, каким именно путем был достигнут этот результат. Чтобы защитить человечество от потенциального восстания машин, нельзя пускать процесс обучения и воспитания искусственного интеллекта на самотек.