ChatGPT 및 DALL-E의 창시자인 OpenAI는 유럽 연합에 로비를 하여 들어오는 AI 법안을 약화시킨 것으로 알려졌습니다. Time Magazine은 OpenAI가 6월 14일 유럽 의회에서 승인되기 전에 EU AI 법안의 초안을 수정하도록 국회의원에게 요청한 방법을 보여주는 유럽 위원회로부터 문서를 입수했습니다. 이러한 변경 사항 중 일부는 결국 최종 입법에 통합되었습니다.
승인에 앞서 OpenAI의 ChatGPT, DALL-E 등 모든 범용 AI 시스템(GPAI)을 위험 분류에 따라 '고위험'으로 분류하도록 AI 법 내 용어를 확대하자는 의원들 사이에서 논란이 일었다. 행위에 설명되어 있습니다. 이러한 지정으로 이러한 AI 시스템에는 엄격한 안전 및 투명성 의무가 적용됩니다. Time에 따르면 OpenAI는 2022년에 이 분류에 맞서 싸워 고위험 사용 사례에 AI를 명시적으로 적용하는 회사만 규정을 준수하도록 해야 한다고 제안했습니다.
Google과 Microsoft는 또한 GPAI를 구축하는 회사에 대한 AI 법의 영향을 줄이기 위해 노력했습니다. OpenAI가 2022년 9월 EU 집행위원회 및 이사회 관리 들에게 보낸 미발행 백서에서 밝혔듯이 GPT-3는 그 자체로 고위험 시스템은 아니지만 고위험 사용 사례에 잠재적으로 사용될 수 있는 기능을 보유하고 있습니다.
EU에서 OpenAI의 로비 활동은 이전에 공개되지 않았지만 대체로 성공적인 것으로 입증되었습니다. 승인된 EU AI 법에서 GPAI는 자동으로 고위험으로 분류되지 않습니다. 그러나 다양한 작업을 수행하는 ChatGPT와 같은 강력한 AI 시스템인 '기초 모델'에 더 큰 투명성 요구 사항이 부과되었습니다. 결과적으로 기초 모델을 사용하는 회사는 위험 평가를 수행하고 AI 모델 교육 중에 저작권이 있는 자료의 사용을 공개해야 합니다.
OpenAI 대변인은 회사가 AI 법 내 별도의 범주로 '기초 모델'을 포함하는 것을 지지한다고 타임에 알렸습니다. 이것은 AI 모델을 교육하기 위해 데이터를 어디서 소싱하는지에 대한 비밀에도 불구하고 있습니다. 이러한 AI 시스템은 저작권이 있는 자료 및 지적 재산권을 포함하여 인터넷에서 스크랩한 대규모 데이터 세트에서 훈련되는 것으로 널리 알려져 있습니다. OpenAI가 이러한 정보를 강제로 공개하면 다른 대형 기술 회사와 함께 저작권 소송에 취약해질 수 있습니다.
로비 활동이 계속되고 있지만 EU AI 법이 발효되기 전에는 여전히 다루어야 할 거리가 있습니다. 이 법안은 이제 적용 범위를 포함하여 법률의 세부 사항을 마무리하기 위해 유럽 이사회에서 논의되는 최종 '3부작' 단계를 거칩니다. 연말까지 최종 승인을 받을 것으로 예상되며 발효되기까지 약 2년이 걸릴 수 있습니다.
이러한 규제 환경이 증가하는 가운데 AppMaster.io 와 같은 no-code 플랫폼은 애플리케이션 디자인의 혁신을 주도하여 기업이 백엔드, 웹 및 모바일 애플리케이션을 쉽게 만들 수 있도록 합니다. 이를 통해 기업은 AI 사용 및 관련 규정과 관련된 위험을 최소화하면서 포괄적인 소프트웨어 솔루션을 개발할 수 있습니다.