ChatGPT』や『DALL-E』を開発したOpenAIが、欧州連合(EU)に働きかけて、今度制定されるAI法の水増しを要求したと報じられている。タイム誌が欧州委員会から入手した文書によると、6月14日に欧州議会で承認される前に、OpenAIがEUのAI法の草案を修正するよう議員に要請したことが明らかになった。これらの変更の一部は最終的な法案に盛り込まれた。
承認に先立ち、議員たちの間では、AI法内の用語を拡大し、OpenAIのChatGPTやDALL-Eのようなすべての汎用AIシステム(GPAI)を、同法に記載されているリスク分類に従って「高リスク」に分類する議論が続いていた。このような指定により、これらのAIシステムは厳しい安全性と透明性の義務の対象となる。Time』によると、OpenAIは2022年にこの分類に反対し、高リスクのユースケースに明確にAIを適用する企業のみに規制を遵守させるべきだと提案した。
グーグルとマイクロソフトもまた、GPAIを構築する企業に対するAI法の影響を軽減するよう働きかけている。オープンAIが2022年9月にEU委員会と理事会の関係者に送った未発表の白書で述べているように、GPT-3はそれ自体では高リスクのシステムではないが、高リスクのユースケースに採用される可能性のある機能を有している。
EUにおけるOpenAIのロビー活動は、これまで公表されていなかったが、ほぼ成功している。承認されたEUのAI法では、GPAIが自動的に高リスクに分類されることはない。しかし、ChatGPTのような強力なAIシステムであり、さまざまなタスクをこなす「基盤モデル」に対しては、より高い透明性要件が課せられている。その結果、基盤モデルを使用する企業は、リスク評価を実施し、AIモデルのトレーニング中に著作権で保護された素材を使用した場合は開示することが求められる。
OpenAIの広報担当者は、同社がAI法に「基盤モデル」を別のカテゴリーとして含めることを支持しているとTime誌に伝えた。同社はAIモデルを訓練するためのデータの入手先を秘密にしているにもかかわらず、である。そのようなAIシステムは、著作権で保護された資料や知的財産を含む、インターネットからかき集めた大規模なデータセットで訓練されていると広く信じられている。もしオープンAIがそのような情報の開示を余儀なくされれば、他の大手テック企業とともに著作権訴訟を起こされる可能性がある。
ロビー活動は続いているが、EUのAI法は発効までにはまだ距離がある。同法は今後、最終的な「トリローグ」段階を経て、欧州理事会の間で審議され、適用範囲など法律の詳細が最終決定される。年内には最終的な承認が得られる見込みで、発効までには2年ほどかかるかもしれない。
このように規制が強化される中、AppMaster.ioのようなno-code プラットフォームはアプリケーション設計の革新を推進し、企業がバックエンド、ウェブ、モバイルアプリケーションを簡単に作成できるようにしている。これにより企業は、AIの利用や関連する規制に関連するリスクを最小限に抑えながら、包括的なソフトウェア・ソリューションを開発することができる。