Новости и события » Общество » Назвали риски использования искусственного интеллекта для юристов

Назвали риски использования искусственного интеллекта для юристов

Назвали риски использования искусственного интеллекта для юристов

В США преступник оспорил приговор, вынесенный в том числе с учетом "выводов" компьютерной программы, которая определяет вероятность рецидива. А программы для кадровиков собирают всю информацию о кандидате из соцсетей. При этом они могут взять и те данные, которые рекрутеры по закону не могут запрашивать. Риски использования искусственного интеллекта обсудили на конференции, передает Pravo.

4 февраля в рамках конференции Legaltech в Нью-Йорке прошла панель, посвященная рискам в условиях цифровой трансформации. Представители ряда компаний рассказали о сложностях, с которыми сталкивается юрист при использовании технологий искусственного интеллекта (ИИ).

Партнер и сопредседатель глобальной инициативы по искусственному интеллекту в международной юридической фирме Covington & Burling Ли Тидрих отметил, что так же, как и интернет в 90-х, рост технологий ИИ вновь опережает развитие правовой отрасли. Отсутствие ясности в регулировании многих "технологических" вопросов повышает ставки для организаций. "Надо быть очень осторожным при использовании ИИ, потому что даже если нет никакого риска с точки зрения законодательства, то негативные заголовки в новостях могут привести к репутационному ущербу", - сказал Тидрих.

Вице-президент по юридическим и кадровым вопросам в Canam Steel Corp Рон Пеппе пожаловался на сложности с политикой конфиденциальности. По его словам, при найме сотрудников на работу у компании часто есть возможность собрать все данные кандидата с социальных сетей. Есть информация, которую рекрутерам нельзя запрашивать (например, религия), но программа может, обнаружив при поиске, автоматически ее занести в базу данных. Из-за этого неизбежно встает вопрос о предвзятости.

Тидрих в ответ привел в пример дело "Штат против Лумиса", где гражданин США Эрик Лумис в Верховном суде Висконсина оспаривал решение суда первой инстанции. Он приговорил Лумиса к шести годам лишения свободы, используя в том числе показания компьютерной программы COMPAS. Она определяет вероятность рецидива преступления у подсудимого в будущем на основе опросника. Лумис требовал признать незаконным ее использование при рассмотрении дела, поскольку, оценивая вероятность совершения им преступления, она могла учесть его расу и пол. Верховный суд оставил решение без изменений, сославшись на то, что суд первой инстанции в своем решении полагался на другие факторы.

Советник по связям с государственными органами компании Verizon Дэвид Кесслер сказал, что недостатки ИИ осложняют работу юриста больше других. Он говорил об этических обязательствах, которые юристы должны учитывать при использовании ИИ в своей организации, в том числе и о том, как лучше всего получить разрешение на использование информации субъекта персональных данных. "Вы обязаны применять должные меры безопасности, когда используете любую технологию", - добавил Кесслер.


В iOS 18 не будет фирменного чат-бота в духе ChatGPT

В iOS 18 не будет фирменного чат-бота в духе ChatGPT

Apple не планирует добавлять в iOS 18 собственный чат-бот на базе генеративного искусственного интеллекта, утверждает Марк Гурман из Bloomberg. Вместо этого корпорация сконцентрировалась на отдельных ИИ-функциях, которые «помогают пользователям в...

сегодня 10:32

Свежие новости Украины на сегодня и последние события в мире экономики и политики, культуры и спорта, технологий, здоровья, происшествий, авто и мото

Вверх