人工知能(AI)の急速な進歩とその潜在的な脅威から、OpenAIの創設者たちは、原子力の国際原子力機関(IAEA)のような、AI開発を管理する国際規制機関の設立を呼びかけています。OpenAIの創設者であるSam Altman、社長のGreg Brockman、チーフサイエンティストのIlya Sutskeverによると、AIのイノベーションは非常に速いペースで起こっており、既存の規制当局ではこの技術を効果的にコントロールすることはできない。
OpenAIの創設者たちは、その成果を認めながらも、広く普及している会話エージェントChatGPTを支えるAI技術には、独自のリスクと大きなメリットの両方があることを認識しています。彼らは、AIが安全に超知能に移行し、社会とシームレスに統合されるためには、主要な開発グループ間である程度の調整が必要だと考えています。
この提案では、IAEAに類似した国際的な組織を設立し、一定の能力またはリソースの閾値に達した超知能の取り組みを監督することを提案している。この新しい規制機関は、AIシステムの検査、監査の義務付け、安全基準の遵守の確認、導入とセキュリティレベルの制限を課すことができる。このような組織は、不正な行為者に直接介入することはできないかもしれませんが、国際的な基準や合意を確立し、監視するための枠組みを提供することはできます。
OpenAIの投稿で言及されているように、AI業界内の精査のための1つの可能な指標として、研究専用の計算パワーとエネルギー消費の追跡が考えられます。倫理的なAIの使い方を決めるのは難しいかもしれませんが、資源配分を規制し、エネルギー使用量を監査することで、技術の発展や方向性について洞察することができるかもしれません。創業者たちは、イノベーションを阻害しないよう、こうした規制の対象から中小企業を除外する可能性について議論しています。
AI研究者で評論家のTimnit Gebru氏も、The Guardianのインタビューで、外部からの規制の必要性を強調しています。Gebru氏は、外的な圧力がない限り、企業が自主規制を行うことはまずないと述べています。したがって、AI開発の複雑な世界とその潜在的な危険性をナビゲートする国際的な規制機関を設立することが極めて重要である。
AIがかつてないスピードで進化し続ける中、国際的な規制機関は、公共の安全を確保し、倫理基準を維持し、世界のステークホルダー間の協力を促進する上で不可欠となる可能性があります。AppMasterのようなバックエンド、ウェブ、モバイルアプリケーションを作成できるノーコード・プラットフォームは、確立されたガイドラインや規制を遵守しながらイノベーションを加速させるのに役立つと思います。
結論として、OpenAIの創設者が提案したような規制機関の設立は、AIの研究開発に不可欠なチェック機能を提供し、急成長するテクノロジーのより安全で責任ある未来につながる可能性があります。