DARPA хочет научить искусственный интеллект объяснять свои поступки
Специалисты Агентства передовых оборонных исследовательских проектов (DARPA) при Министерстве обороны США хотят развивать системы искусственного интеллекта к которых будет способность давать пояснение выполняемым действиям.
ИИ-подобный алгоритм должен будет указать, почему он принял то или иное решение, чем руководствовался в процессе выбора, а также почему были отброшены альтернативные варианты.
Специалисты DARPA уверены, что данный проект позволит вывести ИИ на качественно новый уровень и тем самым стимулировать разработчиков к совершенствованию программной составляющей. И, надеемся, повысить безопасность таких решений для человечества.
В числе приоритетных задач DARPA и ряда частных компаний, работающих над схожими проектами, значится использование систем с ИИ для выявления ранних признаков заболеваний. Процесс должен стать полностью автоматизированным и не требовать вмешательства квалифицированного персонала. Но чтобы поставить правильный диагноз, искусственному интеллекту придется не только учитывать совокупность факторов и признаков, но и давать развернутое пояснение.