"Найти и убить": в США призвали запретить ИИ самостоятельно ликвидировать людей
Институт Future of Life Institute призвал запретить использование искусственного интеллекта в разработке беспилотников. Было опубликовано видео с угрозами, которые несет в себе ИИ в военных разработках.
Видео с названием "Slaughterbots - if human: kill " показывает, что может быть, если в роботе или ИИ будет четкая инструкция "обнаружить-идентифицировать-убить". Ролик выполнен в виде выпуска новостей с различными сценариями убийства роботами людей:
- при ограблении банков
- при охоте на военных
- при нападении на полицейские участки
В ролике также показали роботов-собак с автоматами на спинах.
"В то время как в случае беспилотником решение об ударе принимается удаленно оператором-человеком, в случае автономного оружия решение о том, кто выживет, а кто будет убит принимается исключительно алгоритмами", - подчеркивается в видеоролике.
Поэтому FLI и Международный красный крест предлагает запретить давать право искусственному интеллекту решать, кого можно убить. Всего институт и Красный крест выделили 4 причин для запрета подобных боевых систем:
- может быть непреднамеренная эскалация ситуаций из-за широкого распространения ИИ
- массовое распространение подобных технологий по всему миру из-за их дешевизны
- непредсказуемость машинного обучения в реальных условиях и при боях
- избирательный поиск цели оптическими сенсорами, которые могут визуально определять цель.