OpenAIは、AIシステムの開発は、今後10年以内に人間の専門知識を超える可能性があると言っています。このような超知的なシステムは、さまざまな領域に革命をもたらし、現在の大企業に匹敵する規模の仕事を遂行する可能性があります。しかし、超知能の巨大なパワーは、大きなチャンスと大きなリスクの両方をもたらします。豊かな未来を実現するためには、効果的なリスクマネージメントと協調が不可欠です。OpenAIは、この領域におけるガバナンスの3つの重要な側面について、最初の考えをまとめました。

  1. 協調的な開発努力: 超知能を安全かつ有益に発展させるためには、主要な組織間の連携が不可欠です。OpenAIは、主要な政府を含むプロジェクトや、この目的に特化した新しい組織の設立を提案しています。この調整により、安全基準を維持し、超知能システムと社会との統合を促進できます。さらに、個々の企業は、倫理的な慣行へのコミットメントを強調し、責任ある行動を高い基準で行う必要があります。
  2. 監視のための国際的権威: OpenAIは、超知能の能力が一定の閾値に達すると、国際原子力機関(IAEA)のような国際的な当局が必要だと述べています。この機関は、システムの検査、安全基準の実施、監査の実施、展開とセキュリティーレベルの制限、リソース消費の追跡を行います。このような措置で超知能の開発に関連する実存的なリスクに対処します。初期段階として、企業によるこれらの慣行の自主的な採用と、その後の各国による実施により、効果的な監視への道を開くことができます。
  3. 技術的安全対策: 超知能の安全性を確保するためには、相当な研究と技術的進歩が必要です。OpenAIはこれを継続的な課題として認識し、さまざまな組織による献身的な努力の必要性を強調しています。超知能に関連するリスクを軽減する技術の開発は、AIコミュニティーからの注目と協力を必要とする重要な研究課題です。

規制の範囲について

OpenAIは、企業やオープンソースプロジェクトが、負担の大きい規制を受けることなく、重要な能力の閾値以下のAIモデルを開発できるようにすることの重要性を認識しています。今日のAIシステムは一定のリスクを抱えていますが、他のインターネット技術と同等であり、既存の社会的アプローチは適切であると考えられます。規制の焦点は、主に高度なシステムのガバナンスを包含し、超知能的な能力を持たない技術に不必要な制約を加えることは避けるべきです。

公的な監視と意思決定

OpenAIは、超知能システムを管理する上で、強力な公的監視と民主的意思決定の重要性を強調しています。彼らは、AIシステムの境界やデフォルトを決定する際に、世界中の人々が発言権を持つべきだと考えています。これを実現する具体的な仕組みはまだ不明ですが、OpenAIはそのような仕組みの開発に向けて実験することを約束します。そして、その境界の中で、個々のユーザーが利用するAIシステムの挙動をコントロールできるようにすべきです。

超知能の背後にある動機

OpenAIは、超知能の開発を推進する2つの基本的な理由を強調しています。まず、教育、創造的な仕事、個人の生産性などにおける初期のアプリケーションに見られるように、超知能は世界を大幅に改善することにつながると考えています。これらのシステムは、複雑な社会的課題に対処し、世界的に生活の質を向上させる可能性を持っています。第二に、OpenAIは、超知能の創造を阻止することの難しさとリスクを強調しています。その変革の可能性と関係者の増加により、その発展を阻止するには極端な対策が必要です。そこで、責任ある倫理的な実装を確保することに焦点を当てるべきです。

OpenAIは、上記のように超知能の開発における効果的なガバナンスとリスクマネージメントの必要性を認識しています。