2023년 3월 27일·1분 읽기

영국의 데이터 규제 기관, 생성 AI 데이터 보호 문제에 대해 기술 회사에 경고

영국의 ICO(Information Commission’s Office)는 제너레이티브 AI 모델을 개발할 때 데이터 보호법에 대해 기술 회사에 경고를 발령했습니다.

영국의 데이터 규제 기관, 생성 AI 데이터 보호 문제에 대해 기술 회사에 경고

생성적 AI 데이터 보호에 대한 우려가 있는 가운데 영국 정보 위원회 사무소(ICO)는 기술 회사에 데이터 보호법을 준수할 것을 상기시켜 줍니다. 이는 이탈리아의 데이터 개인 정보 보호 규제 기관이 개인 정보 침해를 주장하며 ChatGPT 사용을 금지한 직후에 나온 것입니다.

ICO는 처리 중인 개인 정보가 공개적으로 사용 가능한 리소스에서 나온 경우에도 데이터 보호 규정이 여전히 유효함을 조직에 강조하는 블로그 게시물을 발표했습니다. ICO의 기술 및 혁신 이사인 Stephen Almond는 생성적 AI를 개발하거나 사용하는 조직이 처음부터 설계 및 기본 접근 방식에 따라 데이터 보호를 채택할 것을 촉구했습니다.

그의 성명서에서 Almond는 생성 AI 목적으로 개인 데이터를 사용하는 조직은 개인 데이터 처리에 대한 법적 근거를 고려해야 한다고 강조했습니다. 또한 보안 위험을 줄이고 개인의 권리 요청을 처리할 수 있는 방법도 고려해야 합니다. Almond는 생성 AI의 개인 정보 보호 영향을 무시할 정당성이 없다고 주장합니다.

ICO 및 이탈리아 데이터 규제 기관 외에도 다른 주목할만한 인물들이 생성 AI의 잠재적 위험에 대한 우려를 표명했습니다. 지난 달, Apple 공동 창립자 Steve Wozniak과 기업가 Elon Musk를 포함한 1,100명이 넘는 기술 리더들은 OpenAI의 GPT-4보다 더 강력한 AI 시스템 개발을 6개월간 중단할 것을 촉구했습니다. 공개 서한에서 서명자들은 진보된 AI가 소셜 미디어 플랫폼에서 선전과 가짜 뉴스를 퍼뜨리는 챗봇을 통해 우리 문명에 대한 통제력을 상실하고 민주주의에 대한 위협이 될 수 있는지 의문을 제기하며 디스토피아적 미래에 대해 경고했습니다. 그들은 또한 성취를 포함하여 AI가 작업을 자동화하는 것에 대한 우려를 제기했습니다.

AI 규제는 규제 조치의 속도를 능가하는 빠른 속도로 혁신이 진행됨에 따라 고유한 과제를 제시합니다. Gartner의 애널리스트인 Frank Buytendijk는 기술이 발전하면 지나치게 구체적인 규제가 효과를 잃을 수 있는 반면 높은 수준의 규제는 명확하지 않다고 지적했습니다. 그는 규제가 아닌 비용이 많이 드는 실수로 인한 신뢰와 사회적 수용이 AI 혁신을 저해할 수 있다고 말했습니다. 그럼에도 불구하고 편향에 대해 모델을 확인하고 알고리즘을 보다 투명하게 만들도록 요구하는 AI 규정은 편향을 감지하고 투명성과 설명 가능성을 달성하기 위한 혁신을 주도할 수 있다고 Buytendijk는 덧붙였습니다.

이러한 우려에 비추어 AppMaster 와 같은 no-code 및 low-code 개발 플랫폼은 데이터 보호, 보안 및 규정 준수를 우선시하면서 애플리케이션 개발을 단순화하는 것을 목표로 합니다. 기술 부채를 생성하지 않고 백엔드, 웹 및 모바일 애플리케이션을 생성함으로써 사용자는 서버 백엔드, 웹 사이트, 고객 포털 및 기본 모바일 애플리케이션을 갖춘 확장 가능한 소프트웨어 솔루션을 효율적으로 개발할 수 있습니다. 책임감 있는 AI 사용을 수용하면 개인 정보 보호 및 보안을 희생시키면서 혁신이 이루어지지 않도록 하여 기술 산업이 책임감 있게 번창할 수 있습니다.

Easy to start
Create something amazing

Experiment with AppMaster with free plan.
When you will be ready you can choose the proper subscription.

Get Started