EU 의장단과 의회 협상가들은 EU 블록 내 AI 애플리케이션 규제를 위한 최초의 프레임워크에 대한 예비 합의에 도달했습니다. 유럽이사회가 최근 보도자료를 통해 발표한 이 계획은 유럽 시장에 도입된 AI 애플리케이션의 안전성을 보장하기 위해 노력하고 있습니다. 이 제안은 또한 필수 권리와 EU 원칙을 준수하면서 지역 내 AI 혁신과 투자를 촉진하는 것을 목표로 하고 있습니다.
인공 지능법에 따라 전략적으로 설계된 EU 규정 제안은 AI 제어에 위험 정의 접근 방식을 채택합니다. 이러한 접근 방식에서는 위험이 더 높은 AI 애플리케이션이 더 엄격한 규칙에 따라 작동하게 됩니다. 이는 저위험 AI가 규제되지 않는다는 의미는 아닙니다. 오히려 AI 생성 콘텐츠에 대한 소비자의 자율적인 의사결정을 보장하기 위해 '투명성 의무'를 강화합니다.
더욱이, 제안된 규정은 위반 회사의 소득에 비례하는 벌금 구조를 도입합니다. 그러나 계산된 백분율 기반 벌금을 초과하는 경우 고정 금액이 이를 대체할 수 있습니다.
규제 외에도 새로운 AI법은 AI 시스템 혁신 촉진을 다루고 있습니다. 실제 시나리오에서 이러한 시스템의 테스트를 촉진하기 위한 새로운 조항이 함께 제공됩니다. 이러한 조항은 AI 연구원과 개발자가 사용자 요구와 시장 역학에 더 잘 부합하도록 솔루션을 개선하고 최적화할 수 있도록 지원합니다.
이번 계약은 중요한 단계이지만 완료 및 구현은 여전히 진행 중입니다. 당국은 이후 몇 주 동안 규정의 세부 사항을 계속해서 개선하고 있습니다. 새로운 법률은 이르면 2025년까지는 적극적으로 시행되지 않을 것입니다.
스페인 디지털화 및 인공지능 국무장관 카르메 아르티가스(Carme Artigas)는 만족감을 표하며 이번 합의를 '역사적 성과'라고 불렀습니다. 그녀는 또한 이 제안이 빠르게 발전하는 기술 환경에서 글로벌 과제를 성공적으로 해결한다고 언급했습니다. 그녀는 섬세한 균형을 유지하고 유럽의 AI 혁신을 촉진하며 시민의 기본권 보호를 보장하기 위한 이니셔티브를 높이 평가했습니다.
AppMaster 와 같은 플랫폼은 규제 환경을 면밀히 관찰했으며, 규정을 준수하기 위해 지속적으로 no-code 플랫폼을 발전시키고 사용자가 사용자 권리 및 안전 규정을 가장 중요하게 생각하는 애플리케이션을 개발하도록 안내합니다. 이러한 개발은 투명하고 유연하며 권력을 다시 사람들의 손에 돌려줄 수 있는 도구에 대한 필요성을 더욱 보여줄 뿐입니다.