Facebook поддержит проект изучения этики искусственного интеллекта
Соцсеть готова к сотрудничеству с немецкими учеными. Программа направлена на изучение масштабных этических проблем, связанных с развитием обучаемых машин.Facebook поддержит программу ученых из Мюнхена, направленную на исследования этических вопросов, связанных с развитием искусственного интеллекта (ИИ). 7,5 миллиона долларов будут выделены новому независимому Институту по этике искусственного интеллекта, работающему в партнерстве с Техническим институтом Мюнхена, сообщил представитель компании в воскресенье, 20 января.
Пятилетняя программа предлагает исследование различных аспектов искусственного интеллекта, таких как безопасность, контроль, объективность. Результаты работы будут представлены законодателям, предпринимателям и широкой общественности. Средства, выделяемые Facebook, пойдут на начальное финансирование проекта, исследователи ожидают средств и от других заинтересованных партнеров. Новое исследовательское учреждение возглавит профессор Кристоф Лютге (Christoph L?tge) из Технического института Мюнхена.
Подводные камни развития искусственного интеллекта
Распространение обучаемых машин и развитие искусственного интеллекта сопряжено с рядом серьезных этических проблем. Как учить ИИ этике и одновременно ставить ему неэтичные задачи? Например, если при помощи машинного обучения дронов учат убивать людей.
С такой проблемой уже столкнулась компания Google, разрабатывающая программное обеспечение для пилотного военного проекта Project Maven по управлению дронами. Предположительно, в будущем это может привести к созданию полностью автономного оружия. Ряд сотрудников Google уволились в знак протеста против этого проекта, еще 4000 подписали петицию с просьбой отказаться от контракта с военными. Более 1000 видных ученых в области ИИ, этики и информационных технологий написали открытое письмо с просьбой к Google прекратить работы над проектом и поддержать международный договор по запрету автономного оружия.
Подобных проблем возникает все больше и это вызывает необходимость масштабных исследований этических вопросов, связанных с искусственной интеллигенцией.