OpenAI 2023/5/22 16:00:00(JST)
今後10年以内に、AIシステムはほとんどの分野で専門家のスキルを超え、現在の大企業と同等の生産活動を行う可能性があります。超知能は、人類が過去に対処した技術よりも強力な潜在的な利点とリスクを持っています。私たちはより豊かな未来を築くことができますが、そこにたどり着くためにリスクを管理する必要があります。
成功するためには、3つの重要なアイデアがあります。まず、開発努力の間で一定の調整が必要です。これにより、超知能の開発が安全性を維持し、社会とのスムーズな統合が可能になります。次に、IAEAのような国際機関が必要です。これにより、システムの検査、監査、安全基準の遵守テストなどが行われます。最後に、超知能を安全にする技術的能力が必要です。これは、私たちが多くの努力を払っている未解決の研究課題です。
最も強力なシステムの管理と展開に関する決定は、強力な公的監督が必要です。AIシステムの範囲とデフォルトは、世界中の人々が民主的に決定すべきです。リスクと困難を考慮すると、この技術を開発する理由は、より良い世界を築くことと、超知能の創造を止めることが困難であるためです。だからこそ、私たちは正しい方法で取り組む必要があります。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Governance of superintelligence.