ЕС примет правила для искусственного интеллекта, запрещающие отслеживание и рейтинги социального поведения
Европейский союз готовится запретить системы искусственного интеллекта, используемые для массового отслеживания или ранжирования социального поведения, в то время как компании, разрабатывающие ИИ, могут столкнуться с штрафами до 4% от глобального дохода, если они нарушат новые правила, регулирующие программные приложения.
Правила являются частью законодательства в сфере ИИ, которое разработано и должно быть предложено Европейской комиссией, исполнительным органом блока, проект правил был предоставлен Bloomberg. Некоторые нормы правил могут претерпеть изменения до того, как комиссия официально примет и опубликует их на следующей неделе.
Правила ЕС буд у т включать следующие нормы:
- Системы искусственного интеллекта, используемые для манипулирования поведением людей, использования информации об отдельных лицах или группах лиц, используемые для проведения социальной оценки или для неизбирательного отслеживания, будут запрещены на территории ЕС. Могут применяться некоторые исключения для общественной безопасности.
- Системы удаленной биометрической идентификации, используемые в общественных местах, такие как распознавание лиц, потребуют специального разрешения властей.
- Приложения искусственного интеллекта, которые считаются "высокорисковыми", должны будут пройти проверку перед развертыванием, чтобы убедиться, что системы обучены беспристрастным наборам данных, отслеживаемым образом и под контролем человека.
- Искусственный интеллект с высоким уровнем риска будет относиться к системам, которые могут поставить под угрозу безопасность, жизнь или основные права людей, а также демократическим процессам ЕС, таким как беспилотные автомобили и удаленная хирургия, среди прочего.
- Некоторым компаниям будет разрешено проводить оценку самостоятельно, тогда как другие будут подвергаться проверкам со стороны третьих лиц. Сертификаты соответствия, выданные органами по оценке, будут действительны до пяти лет.
- Правила будут в равной степени применяться к компаниям, базирующимся как в ЕС или так и за рубежом.
Согласно документу, европейские государства-члены должны будут создать органы по оценке для тестирования, сертификации и инспекции систем. Компании, которые разрабатывают запрещенные сервисы ИИ, предоставляют неверную информацию или отказываются сотрудничать с национальными властями, могут быть оштрафованы до 4% от общемирового дохода.
Согласно документу, правила не будут применяться к системам ИИ, используемым исключительно в военных целях.
Представитель ЕС отказался комментировать предлагаемые правила. О проекте документа сообщалось ранее.
Поскольку искусственный интеллект начал проникать во все сферы жизни общества, от предложений покупок и голосовых помощников до решений, касающихся найма, страхования и правоприменения, ЕС хочет обеспечить прозрачность технологий, развертываемых в Европе, под контролем человека и соответствие высоким стандартам для конфиденциальности пользователей.
Предлагаемые правила появились в то время, когда ЕС пытается догнать США и Китай по внедрению искусственного интеллекта и других передовых технологий. Новые требования могут помешать технологическим компаниям в регионе конкурировать с иностранными конкурентами, если они отложат выпуск продуктов из-за того, что их сначала нужно протестировать.
После того, как эти правила были предложены комиссией, они могут измениться после внесения предложений со стороны Европейского парламента и стран-членов блока, прежде чем станут законом.