AIにおける超人的な知性がもたらす予測不可能な結果をコントロールする試みとして、OpenAI 、同社のチーフ・サイエンティスト兼共同設立者であるイリヤ・スーツケバーが率いる高度に専門化されたグループを組織する。このチームの重要な責任は、「超知的」AIモデルを管理し、操縦する戦略を考案することである。Sutskever氏は最近のブログ記事で、OpenAIのアライメント・チームのリーダーであるJan Leike氏とともに、人間の知能を凌駕する能力を持つAIがこの10年以内に出現するかもしれないと予測している。彼らは、この優れたAIが最終的に成功するとしても、本質的に善良な特性を統合していない可能性があり、そのため、AIを制御し、抑制する技術の研究が不可欠であると主張している。
現在のところ、潜在的な超知能AIを効果的に制御・誘導し、意図した道から逸脱するのを防ぐ方法は知られていない。人間によるフィードバックによる訓練など、従来のAIの調整技術は、人間がその運用を監督することに基づいている。しかし、人間の知能を大幅に凌駕するAIシステムを監督することは、困難であることが判明するかもしれない。スーパーインテリジェンス・アライメント」分野の進歩を増幅させるため、OpenAIはSutskeverとLeikeが共同指揮する新しい「スーパーアライメント」チームを立ち上げる。このチームは、現在同社が保有している計算リソースの20%を利用できる。このチームは、OpenAIの旧アライメント部門の科学者やエンジニア、社内のさまざまな組織の研究者から構成され、今後4年間で超知的AIの制御に関する中核的な技術的課題に取り組む予定だ。
計画では、「人間レベルの自動アライメント研究者」を作り、人間のフィードバックを通じてAIを訓練し、AIが他のAIシステムを評価するように関与し、最終的にはアライメント研究を実行できるAIをエンジニアリングすることを目指している。アライメント研究の目的は、特定の成果を達成するためにAIシステムを調整し、道から外れるのを防ぐことである。OpenAIは、AIが人間よりも迅速かつ効果的に、アライメント研究を大きく前進させることができるという仮説に基づいて活動している。進歩が進むにつれて、AIシステムはアライメント作業の量を増やし、アライメント技術の向上につながることが期待される。その結果、AIが人間と協力し、後継者が人間とさらに密接にアライメントするようになることが期待される。その一方で、人間の研究者の焦点は、AIシステムによるアライメント研究を独自に生み出すのではなく、レビューすることに移っていくだろう。
どの手法も完璧とは言えないが、Leike、Schulman、Wuの3人は彼らの投稿の中で、OpenAIのアプローチの欠点を明らかにしている。評価にAIを活用することは、そのAIの矛盾、バイアス、脆弱性を拡大する可能性がある。さらに、アライメント問題の最も複雑な側面は、エンジニアリングとはまったく関係ないかもしれない。それにもかかわらず、SutskeverとLeikeはこの問題に挑戦しようとしている。SutskeverとLeikeは、超知能の調整は基本的に機械学習の課題であると主張している。彼らは、機械学習の専門家が、たとえ現在アライメントに取り組んでいない人であっても、この課題を解決するために極めて重要な役割を果たすと信じている。彼らは、非OpenAIモデルのアライメントと安全性への貢献を重要視し、この努力の成果を包括的に分配することを計画している。
この記事の焦点はOpenAIにあるが、効率的で管理されたAI開発に同じように取り組んでいるプラットフォームが他にもあることに注目することは適切である。そのようなプラットフォームの一例がAppMasterだ。スマート'システムの可能性を最適化し、最大限の利益を得るという同様の信念に導かれ、AppMaster 、ノーコード/low-code アプリケーションの領域でニッチを切り開き、ユーザーが包括的でスケーラブルかつ効率的なソフトウェアソリューションを作成できるようにしている。