Транснациональные корпорации защищают искусственный интеллект, а не конфиденциальность человека
У самых влиятельных технологических лидеров появилось новое послание: беспокоиться не о нас, а об искусственном интеллекте.
Два года назад представители Big Tech начали каяться в Давосе в ответ на критику компаний в таких вопросах, как вмешательство в выборы со стороны поддерживаемых Россией групп; распространение дезинформации; распространение экстремистского контента; антимонопольные нарушения; и уклонение от уплаты налогов. Новый руководитель корпорации Uber Technologies даже попросил, чтобы его регулировали.
Однако, проблемы не исчезли, в этом году руководители предупреждали аудиторию о том, что должен регулироваться ИИ, а не сами компании.
"ИИ - одна из самых впечатляющих вещей, над которыми мы работаем как человечество. Это серьезней, чем огонь или электричество", - заявил генеральный директор Alphabet Сундар Пичаи в интервью на Всемирном экономическом форуме в Швейцарии в Давосе в среду. Сравнивая это с международными дискуссиями по изменению климата, он сказал: "Вы не можете получить безопасность, если над ней работает одна страна или группа стран. Вам нужна глобальная структура".
Призыв к стандартизированным правилам в области искусственного интеллекта повторил генеральный директор Microsoft Сатья
"Я думаю, США, Китай и ЕС, имеющие набор принципов, определяющих, что технология может означать в наших обществах и в мире в целом, нуждаются больше, чем это было последние 30 лет", - сказала Наделла.
Это простой аргумент. Разрешение компаниям диктовать свою собственную политику в отношении ИИ привело к протестам сотрудников. Google, в частности, решил отказаться от Project Maven, секретной правительственной программы, которая в 2018-м использовала технологию для анализа изображений с военных беспилотников, после негативной реакции на эту ситуацию. Исследователи согласны.
"Мы не должны ставить компании в положение, когда им приходится выбирать между этическими принципами и практическими результатами", - сказал Стефан Хойманн, директор аналитического центра Stiftung Neue Verantwortung в Берлине. "Вместо этого наши политические институты должны устанавливать и применять правила, касающиеся ИИ".
Нынешняя волна против ИИ своевременна. Через несколько недель ЕС обнародует свои планы по законодательному оформлению технологии, которая может включать новые юридически обязательные требования для разработчиков ИИ в "секторах повышенного риска", таких как здравоохранение и транспорт, согласно раннему проекту, полученному Bloomberg. Новые правила могут требовать от компаний прозрачности в том, как они строят свои системы.
Предупреждение бизнес-элиты об опасностях ИИ означало, что в Давосе мало было уделено внимания более важным проблемам, в частности, тому, сколько пользователей жертвуют своей конфиденциальностью ради использования технических продуктов. Так, в прошлом году, по информации Bloomberg, работники Amazon прослушивали разговоры людей через цифровых помощников Alexa, что побудило регуляторные органы ЕС искать новые способы контроля над технологией. В июле Facebook согласилась выплатить регуляторам США $5 млрд. для разрешения скандала с данными Cambridge Analytica. А в сентябре YouTube признал, что нарушил правила США, которые запрещают сбор данных о детях младше 13 лет.
Конфиденциальность по-прежнему под угрозой
Вместо того, чтобы приносить извинения за тотальное нарушение конфиденциальности и постоянное вмешательство в личную жизнь людей, большие технологии сосредоточились на том, как далеко они продвинулись за последние несколько лет в плане обработки персональных данных и разработках искусственного интеллекта.
Вице-президент Facebook Никола Мендельсон заявил в интервью Bloomberg Television в пятницу, что компания внедрила стандарты, аналогичные Европейскому общему правилу защиты данных, на других рынках.
Кит Энрайт, директор по конфиденциальности Google, также на этой неделе на конференции в Брюсселе рассказал о том, как компания работает над тем, чтобы найти способы минимизировать объем клиентских данных, которые необходимо собирать.
"Сейчас мы действительно сосредоточены на том, чтобы делать больше с меньшим количеством данных", - сказал Энрайт на конференции по защите данных в среду. "Это противоречит интуитивному пониманию многих людей, потому что популярное утверждение гласит, что такие компании, как наша, пытаются собрать как можно больше данных".
В то же время, регуляторы все еще разрабатывают новые законы для защиты пользовательских данных. США работают над федеральным законодательством, которое предусматривает ограничения на обмен информацией о клиентах и, как и GDPR (General Data Protection Regulation) в ЕС, требует, чтобы компании получали согласие потребителей, прежде чем делиться данными с третьими сторонами. Facebook, Amazon, Apple и Microsoft увеличили сумму, которую они потратили на лоббирование в Вашингтоне в прошлом году, причем некоторые из этих средств пошли на продвижение дружественных к отрасли счетов за конфиденциальность.
И хотя технические руководители призывали к правилам для искусственного интеллекта, они по-прежнему предостерегали от слишком частого и слишком быстрого регулирования.
Пичаи напомнил законодателям, что существующие правила могут применяться уже во многих случаях. Законодателям "не нужно начинать с нуля", сказал он.
Таким образом, руководители Big Tech смещают акценты от основной проблемы защиты персональных данных, на менее значимые, вроде регулирования искусственного интеллекта.
Apple General Motors Microsoft Uber YouTube Вашингтон