20 мар. 2023 г.·2 мин

Рост регулирования ИИ: что нужно знать бизнесу и как к этому подготовиться

По мере того, как ЕС завершает работу над своим законом об искусственном интеллекте, а глобальная нормативно-правовая база в области искусственного интеллекта развивается, предприятия должны готовиться к более строгим нормам в отношении искусственного интеллекта, влияющим на их деятельность.

Рост регулирования ИИ: что нужно знать бизнесу и как к этому подготовиться

Ландшафт искусственного интеллекта (ИИ) и машинного обучения (МО) готов к значительным преобразованиям по мере появления нормативно-правовой базы, обеспечивающей четкие рекомендации по разработке и внедрению технологий ИИ. Поскольку Европейский союз (ЕС) завершает работу над своим Законом об ИИ, а генеративный ИИ продолжает быстро развиваться, предприятиям во всем мире следует подготовиться к более строгим правилам ИИ, которые повлияют на их деятельность, продукты и услуги.

Чтобы лучше понять, как регулирование ИИ может выглядеть для компаний в ближайшем будущем, мы можем изучить ключевые особенности Закона ЕС об ИИ, возможные последствия глобального расширения правил ИИ и стратегии, которые организации должны принять, чтобы подготовиться к этим изменениям. изменение времени.

Закон ЕС об искусственном интеллекте и его глобальные последствия

Ожидается, что Закон ЕС об ИИ, намеченный на парламентское голосование в конце марта 2023 года, установит глобальный стандарт для регулирования ИИ, во многом подобно Общему регламенту ЕС о защите данных (GDPR) в 2018 году. Если сроки будут соблюдены, Закон об искусственном интеллекте может быть принят до конца года.

Хотя это европейское регулирование, влияние Закона об ИИ, вероятно, распространится далеко за пределы ЕС. Так называемый «эффект Брюсселя» заставит организации, работающие в международном масштабе, подчиняться законодательству, в то время как американские и другие независимые компании сочтут, что в их интересах соблюдать его положения. Недавние шаги, такие как предложение Канады о Законе об искусственном интеллекте и данных и автоматизированное регулирование занятости города Нью-Йорка, еще раз свидетельствуют об этой тенденции к принятию правил ИИ за пределами территории ЕС.

Категории риска системы ИИ в соответствии с Законом об ИИ

Закон об ИИ предлагает три категории риска для систем ИИ, каждая из которых сопровождается собственным набором правил и последствий:

  1. Неприемлемый риск: системы ИИ этой категории будут запрещены. К ним относятся манипулятивные системы, которые могут причинить вред, системы биометрической идентификации в реальном времени, используемые в общественных местах для правоохранительных органов, и все формы социального скоринга.
  2. Высокий риск: эта категория охватывает системы искусственного интеллекта, такие как модели сканирования кандидатов на работу, на которые распространяются особые юридические требования.
  3. Ограниченный и минимальный риск: многие из приложений ИИ, которые в настоящее время используются предприятиями (включая чат-боты и инструменты управления запасами на основе ИИ), подпадают под эту категорию и в значительной степени останутся нерегулируемыми. Однако приложения с ограниченным риском, с которыми сталкиваются клиенты, потребуют раскрытия информации об использовании ИИ.

Регулирование ИИ: чего ожидать

Поскольку Закон об ИИ все еще находится в стадии разработки и его глобальные последствия не определены, точный характер регулирования ИИ для организаций остается неопределенным. Однако его влияние, вероятно, будет зависеть от отрасли, типа разрабатываемой модели и категории риска, к которой она принадлежит.

Регулирование может повлечь за собой проверку со стороны третьей стороны, которая проводит стресс-тестирование моделей ИИ в отношении предполагаемой целевой группы. Эти тесты будут оценивать такие факторы, как производительность модели, пределы погрешности и раскрытие характера и использования модели.

Для организаций с системами ИИ с высоким уровнем риска Закон об ИИ уже предоставил список требований, включая системы управления рисками, управление и управление данными, техническую документацию, ведение учета, прозрачность, человеческий контроль, точность, надежность, кибербезопасность, оценку соответствия. , регистрация в правительствах стран-членов ЕС и системы пострыночного мониторинга. Кроме того, ожидается, что тестирование надежности в отрасли ИИ (по аналогии с электронными проверками автомобилей) получит более широкое распространение.

Подготовка к правилам ИИ

Руководители ИИ, которые уделяют первостепенное внимание доверию и снижению рисков при разработке моделей машинного обучения, с большей вероятностью добьются успеха перед лицом новых правил ИИ. Чтобы обеспечить готовность к более строгим правилам ИИ, организациям следует рассмотреть следующие шаги:

  1. Исследуйте и обучайте команды потенциальным нормам и их влиянию на вашу компанию сейчас и в будущем.
  2. Проведите аудит существующих и планируемых моделей, чтобы определить их категории риска и связанные с ними правила, которые в наибольшей степени повлияют на них.
  3. Разработайте и примите основу для проектирования ответственных решений ИИ.
  4. Продумайте стратегию снижения рисков ИИ как для существующих, так и для будущих моделей с учетом неожиданных действий.
  5. Разработайте стратегию управления ИИ и отчетности, обеспечив многократные проверки перед запуском модели.

С принятием Закона об ИИ и грядущими постановлениями, знаменующими начало новой эры в разработке ИИ, этичный и справедливый ИИ уже не просто «хорошо иметь», а «должен иметь». Заблаговременно готовясь к этим изменениям, организации могут охватить мир регулирования ИИ и использовать весь потенциал этой быстро развивающейся технологии. Кроме того, предприятия могут использовать мощные платформы no-code такие как AppMaster чтобы ускорить свои разработки в области ИИ, обеспечивая при этом соблюдение новых правил.

Легко начать
Создай что-то невероятное

Экспериментируйте с AppMaster с бесплатной подпиской.
Как только вы будете готовы, вы сможете выбрать подходящий платный план.

Попробовать AppMaster