Отчет: 36% компаний понесли убытки из-за предвзятости искусственного интеллекта
Согласно новому опросу, проведенному корпоративной компанией, занимающейся искусственным интеллектом (ИИ), предвзятость в системах ИИ может привести к значительным убыткам для компаний.
Так 36% из опрошенных компаний сообщили, что они понесли убытки из-за предвзятости ИИ в одном или нескольких алгоритмах, отмечается в отчете DataRobot, в опросе которого приняли участие более 350 технологов из США и Великобритании, включая IТ-директоров, IТ-директоров, IТ-менеджеров, специалистов по данным и разработчиков, которые используют или планируют применение ИИ.
Из компаний, пострадавших от предвзятости ИИ, более половины потеряли доход (62%) или клиентов (61%), в то время как почти половина потеряла сотрудников (43%) и более трети понесли судебные издержки в результате судебных разбирательств (35%). Об этом говорят данные исследования, которое проводилось в сотрудничестве со Всемирным экономическим форумом и мировыми академическими лидерами.
Предвзятый ИИ может повлиять на доходы несколькими способами, говорит Кей Ферт-Баттерфилд, глава отдела ИИ и машинного обучения и член исполнительного комитета Всемирного экономического форума, международной неправительственной и лоббистской организации, базирующейся в Колони, Швейцария.
"Если вы выберете не того человека с помощью предвзятого алгоритма управления персоналом, это может повлиять на доходы", - говорит эксперт.
"Если вы даете в долг и у вас есть предвзятый алгоритм, то вы не сможете развивать свой бизнес, потому что вы всегда будете кредитовать небольшую группу людей, которым вы ранее уже одалживали деньги", - добавила она.
Непреднамеренный, но все же вредный
Участники опроса также показали, что алгоритмы, используемые их организациями, непреднамеренно способствовали предвзятому отношению к людям по признаку пола (34%), возраста (32%), расы (29%), сексуальной ориентации (19%) и религии (18%).
"Дискриминация на основе ИИ - даже если она непреднамеренная - может иметь серьезные последствия для регулирования, репутации и доходов", - предупреждает Forrester в недавнем отчете о справедливости ИИ.
"Хотя большинство организаций придерживаются справедливости в ИИ как принцип а, внедрение процессов для его последовательного применения является сложной задачей", - продолжает он. "Есть несколько критериев для оценки справедливости систем ИИ, и определение правильного подхода зависит от варианта использования и его социального контекста".
Мэтью Фини, директор проекта по новым технологиям в Cato Institute, аналитическом центре в Вашингтоне, округ Колумбия, объяснил, что предвзятость ИИ сложна, но предвзятость, которую многие люди приписывают системам ИИ, является продуктом данных, используемых системой для обучения.
"Одним из самых известных применений ИИ в наши дни является технология распознавани я лиц", - сказал эксперт. "Было широко распространено документальное подтверждение расовой предвзятости при распознавании лиц. Системы гораздо менее надежны при идентификации чернокожих", - поясняет эксперт. "Это происходит, когда система обучается на фотографиях, которые не представляют достаточного количества людей из определенной расовой группы или фотографии этой группы не очень хорошего качества".
"Это не обязательно вызвано каким-либо гнусным намерением со стороны инженеров и дизайнеров, а является результатом данных, используемых для обучения системы", - продолжает он.
"Люди, которые создают алгоритмы, привносят в их создание свои предубеждения", - добавил Ферт-Баттерфилд. "Если алгоритм создается 30-летним белым мужчиной, предубеждения, которые он привносит, скорее всего, будут отличаться от предубеждений 30-летней афроамериканки".
Предвзятость против дискриминации
Дэниел Кастро, вице-президент Фонда информационных технологий и инноваций, исследовательской и общественной организации в Вашингтоне, округ Колумбия, утверждал, что люди играют быстро и свободно с термином "предвзятость ИИ".
"Я бы определил предвзятость ИИ как постоянную ошибку точности алгоритма, то есть разницу между оценкой и ее истинным значением", - говорит эксперт.
"У большинства компаний есть сильные рыночные стимулы для устранения предвзятости в системах ИИ, потому что они хотят, чтобы их алгоритмы были точными", - сказал он.
"Например, - продолжает эксперт, - если алгоритм неправильно рекомендует покупателю оптимальный продукт, то компания фактически оставляет свой доход конкурент у".
"Есть также репутационные причины, по которым компании хотят устранить предвзятость ИИ, поскольку их продукты или услуги могут рассматриваться как некачественные", - добавил он.
Он объяснил, что иногда рыночные силы, направленные на устранение предвзятости, неэффективны.
"Например, если государственное учреждение использует алгоритм для оценки стоимости имущества для целей налогообложения, может не быть хорошего рыночного механизма для исправления предвзятости", - пояснил он. "В этих случаях правительство должно обеспечить альтернативный надзор, например, посредством мер прозрачности"
Регулирование ИИ
Опрос DataRobot также задавал участникам вопросы о регулировании ИИ. Восемь из 10 технологов (81 %) заявили, что государственное регулирование может быть полезным в двух областях: определение и предотвращение предвзятости.
Однако почти половина опрошенных (45 %) признали свои опасения в том, что регулирование может увеличить стоимость ведения их бизнеса.
Кроме того, почти треть респондентов (32%) выразили обеспокоенность тем, что без регулирования могут пострадать определенные группы людей.
"Вы видите много призывов к такого рода вещам, но ИИ слишком широк, когда дело доходит до регулирования", - говорит Фини.
Глобальная компания по оказанию профессиональных услуг Deloitte прогнозирует, что в 2022 году будет много дискуссий о регулировании ИИ, но считает, что полное утверждение и соблюдение правил не произойдет до 2023 года.
Некоторые юрисдикции могут даже попытаться полностью запретить целые подобласти ИИ, такие как распознавание лиц в общественных местах, социальная оценка и подсознательные методы.
"ИИ имеет огромные перспективы, но в 2022 году мы, вероятно, увидим более пристальное внимание, поскольку регулирующие органы стремятся лучше понять последствия новых приложений ИИ для конфиденциальности и безопасности данных и внедрить стратегии для защиты потребителей", - говорит Пол Сильверглейт, руководитель технологического сектора Deloitte в США.
"Технологические компании стоят перед выбором, когда больше не могут оставлять подобные этические вопросы на волю случая", - предупреждает эксперт. "Необходим комплексный подход к этической ответственности. Компании, которые используют его, особенно в новых областях, таких как ИИ, могут рассчитывать на большее признание, большее доверие и увеличение доходов".
Вашингтон Лето Правительство США