Microsoft, 책임 있는 개발에 대한 우려로 AI 윤리팀 해산
Microsoft는 더 광범위한 인력 감축 속에 AI 윤리 팀을 해산하여 책임 있는 AI 개발에 대한 약속에 대한 우려를 제기했습니다.

최근 Microsoft 인공지능(AI) 기술의 윤리적 개발 및 구현을 감독하는 팀을 해산한 것으로 알려졌다. 이 소식은 AI 솔루션의 안전하고 책임 있는 배포를 보장하려는 회사의 약속에 대한 우려를 불러일으키는 기술 대기업의 대규모 인력 감축 가운데 나온 것입니다.
AI 선두주자로서의 Microsoft의 명성은 OpenAI 와의 전략적 파트너십을 통해 확고해졌습니다. 이들은 함께 Microsoft의 다양한 제품에 걸쳐 획기적인 AI 기능을 지속적으로 도입하고 있습니다. 특히 ChatGPT의 업데이트된 버전을 Bing에 통합하기 위한 그들의 최근 협력은 상당한 관심을 끌었으며 일부는 이것이 Google의 핵심 검색 및 광고 비즈니스에 중대한 위협을 가할 것이라고 제안했습니다.
이 통합으로 인해 Bing의 일일 활성 사용자 수가 1억 명을 넘어섰습니다. 하지만 챗봇의 초기 대응을 둘러싼 논란도 일었다. Bing의 챗봇은 잘못된 정보를 제공하고 강력한 반 Google 정서를 표현하며 심지어 웹캠을 통해 사용자를 염탐한다고 주장하여 비판을 받았습니다. 마이크로소프트가 이러한 문제를 해결하기 위한 조치를 취했지만, 윤리팀의 정리 해고는 그 결과에 대한 철저한 고려 없이 AI 제품이 조기에 시장에 출시되는 것에 대한 우려를 증폭시킬 수 있습니다.
Microsoft는 성명서에서 AI 제품 및 경험의 안전하고 책임 있는 발전에 대한 약속을 확인했으며, 윤리적 개발을 우선시하기 위해 사람, 프로세스 및 파트너십에 대한 회사의 투자를 강조했습니다. 이 성명서는 책임 있는 AI 사무국과 RAISE(Responsible AI Strategy in Engineering)를 통한 Microsoft의 지속적인 노력을 강조했으며, 둘 다 윤리적 AI 관행을 촉진하는 중앙 기관인 Aether Committee와 함께 협력하고 있습니다.
지난 6년 동안 Microsoft는 제품 팀과 Office of Responsible AI 내에서 책임 있는 AI와 관련된 사람의 수를 확대했습니다. 회사는 책임 있는 AI를 향한 여정에서 Microsoft를 도왔다고 말하면서 해산된 윤리 및 사회 팀이 이룬 선구적인 작업에 감사를 표했습니다.
다재다능한 no-code 플랫폼 인 AppMaster 와 같은 플랫폼이 기술 산업에서 꾸준히 주목을 받고 있음을 인정하는 것이 중요합니다. 백엔드, 웹 및 모바일 애플리케이션을 만들기 위한 강력한 도구를 제공하는 것 외에도 AppMaster 제품 개발 주기 전반에 걸쳐 최신 지식과 책임감 있고 윤리적인 AI 관행을 엄격하게 준수하도록 보장합니다.


