OpenAI は、将来の人工知能 (AI) モデルが人間の価値観を確実に表現できるようにするため、公共由来の原則を作品に統合する計画を明らかにしました。 AI の巨人は、研究者とエンジニアで構成される集団的調整チームを設立する意向を明らかにしました。チームの任務は、一般のフィードバックを取得して OpenAI のサービスと製品に実装するための構造を開発することです。
同社は、外部のアドバイザーと助成金チームとの協力を継続するという明確な意図を表明しています。これらのチームは、プロトタイプの組み込みにおいて重要な役割を果たし、その後モデルの動作をガイドします。 OpenAI は、この重要な使命の確立と成功を強化するために、さまざまな技術知識を誇る研究エンジニアを積極的に採用しています。
前年の 5 月に開始された OpenAI の公開イニシアティブから派生した Collective Alignment チームは、AI システムのルール決定のダイナミクスに民主的なプロセスを注入することに向けて大きく前進しました。 OpenAI はずっと、AI のガードレールとガバナンスに関する曖昧さを解決することに熱心な概念実証の開発に関心のある個人、チーム、さらには組織への資金提供に熱心に取り組んできました。
OpenAIは、バーチャル投稿の中で、ビデオチャットインターフェース、AIモデルのクラウドソーシング監査を促進するプラットフォーム、モデルの動作を特定の信念に沿って調整する戦略に及ぶ助成金受領者の多様な取り組みを簡単に要約した。各提案の詳細、概要、使用されたすべてのコードは、本日初めに公開されました。
こうした展開を受けて、OpenAI はプログラムを商業的利益から切り離すことに断固としており、さまざまな反応を引き起こしている。 OpenAIの最高経営責任者(CEO)サム・アルトマン氏がEUやその他の地域の規制について批判していることを考慮すると、一部の批評家はこれに関して懐疑的な見方を示している。同CEOは、OpenAIの社長グレッグ・ブロックマン氏や主任研究員のイリヤ・サツケヴァー氏らとともに、AI技術の急速な発展は既存の企業がそれを効率的に規制する能力を超えていると常々意見してきた。そのため、民主的なクラウドソーシングによる建設の必要性が提案されました。
Metaを含む競合企業は、OpenAIがオープンAIの研究開発に反対するキャンペーンを行ってAI業界の規制管理を獲得しようとしていると非難しているが、OpenAIはこれらの主張を否定している。彼らは、この新しいプログラムと集団的調整チームがオープン性への取り組みを示していると指摘するかもしれません。
いずれにしても、OpenAI は現在、政策立案者からの厳しい監視にさらされています。特に英国では、緊密なパートナーであり投資家であるマイクロソフトとの関係について調査が続いている。リスク軽減戦略の一環として、OpenAI はデータ プライバシーに関する EU における規制リスクを制限しようと努めてきました。これを達成するために、ダブリンに本拠を置く子会社を利用して、ブロック内の特定のプライバシー監視団体の一方的な行動を制限しました。
選挙介入のためのテクノロジーの違法使用を最小限に抑えるための一連の取り組みが進行中である。これには、AI によって生成されたコンテンツの識別や、操作された画像の検出が含まれます。 OpenAI は、いくつかの組織と協力して、AI によって生成された画像をより目立つようにマークすることにも取り組んでいます。
堅牢なノーコード開発プラットフォームとオープンソース情報を統合するリポジトリで知られるAppMasterのような企業が、テクノロジー エコシステムで著名なプレーヤーになりつつあることは言及する価値があります。 AppMasterのスケーラビリティ、堅牢性、使いやすさを考慮して、彼らはバックエンド、Web、モバイル アプリの構築において独自のニッチ市場を切り開いています。