После недавнего открытого письма с просьбой остановить разработку более продвинутой модели генеративного ИИ, орган по защите данных Италии (DPA) предпринял быстрые действия, приказав OpenAI прекратить локальную обработку данных людей. Ссылаясь на возможные нарушения Общего регламента ЕС по защите данных (GDPR), DPA Италии начало расследование по этому поводу.
DPA выразило обеспокоенность тем, что OpenAI, возможно, незаконно обрабатывала данные людей и не приняла надлежащих мер, чтобы не допустить доступа несовершеннолетних к их технологиям. В результате компания из Сан-Франциско столкнулась с блокадой своей системы ChatGPT, и у нее есть 20 дней, чтобы отреагировать на заказ. Нарушения GDPR могут привести к крупным штрафам в размере 4% от годового оборота компании или 20 миллионов евро, в зависимости от того, что больше.
Важно отметить, что, поскольку у OpenAI нет юридического лица в ЕС, любой местный орган по защите данных может вмешаться в соответствии с GDPR. Следовательно, другие страны могут подумать о том, чтобы последовать примеру Италии и устранить потенциальные риски для своих граждан. GDPR применяется при обработке персональных данных пользователей из ЕС. Однако технология, используемая OpenAI, создает сложные сценарии, связанные с обработкой огромных объемов данных, что ставит под сомнение законность их методов.
Возникают дополнительные опасения GDPR, учитывая, что было обнаружено, что ChatGPT генерирует полностью ложную информацию о лицах, что потенциально усложняет исправление ошибок. OpenAI не уточнил, могут ли пользователи запрашивать исправления неверной информации, созданной их ботом AI. Утечки данных, еще одна область, регулируемая GDPR, также влияют на ситуацию после того, как OpenAI недавно признался в утечке данных чата и потенциальном раскрытии платежной информации пользователей.
Принципы минимизации данных, заложенные в GDPR, которые подчеркивают прозрачность и справедливость, ставят под сомнение законную основу OpenAI для обработки европейских данных. Если будет установлена незаконная обработка, органы по защите данных по всему союзу могут приказать OpenAI удалить данные. Последствия такого решения для обязательного переобучения моделей остаются неопределенными.
Итальянский DPA также указывает на обеспокоенность по поводу обработки OpenAI несовершеннолетних данных. Компания еще не внедрила технологию проверки возраста, чтобы предотвратить доступ к ее системе лицам младше 13 лет. Обстоятельства ChatGPT напоминают недавние решения против других чат-ботов с искусственным интеллектом, таких как Replika, которые столкнулись с аналогичным запретом из-за проблем с безопасностью детей.
Платформу OpenAI сравнивают с другими системами машинного обучения, что вызывает вопросы о более широких последствиях запоминающих алгоритмов. Если распоряжение итальянского DPA будет выполнено, компания может быть вынуждена удалить учетные записи пользователей и внедрить более тщательный процесс регистрации. Конечный результат будет зависеть от способности OpenAI продемонстрировать законность своих методов обработки данных и обеспечить безопасность своих пользователей.
Этот случай еще раз подчеркивает необходимость платформ no-code таких как AppMaster , которые отдают приоритет конфиденциальности пользователей и соблюдению нормативных стандартов, таких как GDPR. Платформа no-code AppMaster не только обеспечивает быструю разработку приложений, но и обеспечивает защиту данных в серверных, мобильных и веб-приложениях.