Мировые ученые требуют остановить развитие искусственного интеллекта
Волонтерская организация Future of Life Institute опубликовала открытое письмо, в котором тысячи ведущих мировых ученых, в том числе и Элон Маск, Стивен Хокинг, Стив Возняк призывают человечество остановиться в развитии искусственного интеллекта. Они считают, что наука может зайти слишком далеко в гонке вооружений и надо сделать все возможное, чтобы мир не настигла катастрофа.
Письмо подписали более тысячи ученых и ведущих представителей информационного бизнеса. Суть сводится к тому, что гонка вооружений выходит на новый уровень: разработку и внедрение оружия с собственным искусственным интеллектом. ИИ-вооружение может контролироваться издалека без непосредственного участия живого человека в зоне боевых действий.
"Автономное оружие станет "автоматом Калашникова" будущего. В отличие от ядерного оружия, оно не требует дорогостоящих или труднодоступных материалов, так что оно станет вездесущим и дешевым для массового производства. То, как скоро это оружие появится на черном рынке - лишь вопрос времени. Автономное оружие идеально подходит для заказных убийств, дестабилизации жизни наций, подчинения населения и выборочного истребления отдельных этнических групп", - говорится в письме.
Авторы сообщения указывают и на явные преимущества данного вида вооружения, которые включают сохранение человеческих жизней. Но, в то же время, приходят к однозначному выводу, что ИИ-вооружение будет нести собой катастрофическую опасность для человечества и новый виток гонки вооружений следует немедленно прекратить. "Точно так же, как большинство химиков и биологов не заинтересованы в создании химического и биологического оружия, большинство ученых, работающих над ИИ, не заинтересованы в создании ИИ-вооружения", - утверждают авторы письма.
Под открытым письмом подписались выдающиеся ученые в сфере разработки искусственного интеллекта из множества стран мира. Помимо этого, Элон Маск, Стивен Хокинг, Стив Возняк и другие известные IT-предприниматели высказались в поддержку остановки гонки ИИ-вооружения.
"Искусственный интеллект может стать полезен человечеству во множестве аспектов (...) Но запускать гонку ИИ-вооружений - плохая идея, которая должна быть предотвращена за счет запрета развития автономного вооружения"
- резюмируют ученые.