Новости и события » Общество » "Сможет и убивать, и управлять вашей жизнью": бывший топ-менеджер Google раскрыл главные угрозы ИИ

"Сможет и убивать, и управлять вашей жизнью": бывший топ-менеджер Google раскрыл главные угрозы ИИ

"Сможет и убивать, и управлять вашей жизнью": бывший топ-менеджер Google раскрыл главные угрозы ИИ

Бывший сотрудник компаний Google, Apple и Microsoft Кай-Фу Ли выделил четыре основных угрозы, которые искусственный интеллект представляет для человечества.

Cамой главной опасностью Кай-Фу Ли считает "умное" автономное оружие, которое можно научить убивать людей. По словам Ли, такие технологии навсегда изменят войны из-за своей доступности, точности, скорости программирования - будет практически невозможно установить виновников военных преступлений. Уже сейчас любой энтузиаст может создать летающую машину-убийцу, потратив $1 тыс. Он призвал если не запретить оружие с ИИ, то научиться правильно регулировать его оборот.

"Представьте себе дрон, который может находить конкретных людей с помощью системы распознавания лиц или чего-то еще", - отметил эксперт. - "Я думаю, что это меняет будущее терроризма, потому что террористы больше не обязаны будут жертвовать своими жизнями, совершая нападения на мирных граждан. Любая террористическая группа сможет использовать 10 тыс. таких дронов для свершения чего-то столь же ужасного, как геноцид".

По словам Кай-Фу, второй риск заключается в непреднамеренных негативных последствиях, возникающих, когда ИИ сосредотачивается на одной задаче, игнорируя другие. В качестве примера топ-менеджер привел алгоритмы рекомендаций YouTube, которые предлагают видео, способные негативно влиять на мышление пользователей.

Именно эта проблема всплыла в недавнем расследовании The Wall Street Journal - издание обнаружило, что Instagram негативно влияет на то, как девочки-подростки воспринимают свою внешность. Кроме того, молодые люди связывают соцсеть с повышенным уровнем тревожности и возникновением депрессий.

Еще одной угрозой является сбор конфиденциальной информации о людях. С одной стороны, машинные алгоритмы могут наблюдать за активностью пользователя в Сети, становиться умнее и лучше выполнять свою работу, например, предлагать музыку в соответствии с личными вкусами каждого. С другой стороны, они собирают данные, которые могут помочь скомпрометировать человека.

Решения, принимаемые ИИ, особенно важны в ситуациях, от которых зависит человеческая жизнь. Как правило, машина не может объяснить, почему приняла то или иное решение, но ее программируют так, чтобы она принимала заведомо более выгодные решения, однако и они бывают очень непростыми. Кай-Фу Ли привел такой пример: по рельсам едет пассажирский поезд, и вы видите, что они обрываются. Однако вы можете перевести поезд на другие пути, чтобы спасти пассажиров, но тогда погибнут трое рабочих, которые ремонтируют запасной путь. Можно ли принятое решение свернуть на запасные пути считать "выгодным"?

"Может ли ИИ объяснить нам, почему он принимал те или иные решения, когда речь идет об автоматическом управлении автономными транспортными средствами, или о принятии решений при проведении хирургических операций? Это становится серьезной проблемой", - отметил специалист.

Кай-Фу Ли занимался разработкой искусственного интеллекта на протяжении десятилетий, с тех пор, как он участвовал в создании технологии распознавания речи и автоматизированной речи в качестве докторанта в Университете Карнеги-Меллона. С 2009 года он занимал должность генерального директора Sinovation Ventures с активами более $2,5 млрд.

Apple Microsoft YouTube Лето Университеты


Как выбрать ноутбук для работы

Как выбрать ноутбук для работы

Выбирайте ноутбук , исходя из задач, которые вы планируете решать с его помощью. Если вам нужны офисные приложения и вы часто берете устройство с собой на учебу, присмотритесь к недорогим моделям с двухъядерными процессорами, встроенной графикой и 4 Гб...

сегодня 09:52

Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх