フロンティアのリスクと準備

OpenAI 2023/10/26 17:00:00(JST)

私たちは、安全なAGIの構築を使命としており、AIに関連する安全リスクの全スペクトルに真剣に取り組んでいます。私たちは、7月に他の主要なAI研究所と共に、AIの安全性、セキュリティ、信頼性を促進するための一連の自主的な取り組みを行いました。これらの取り組みは、UK AI Safety Summitの焦点であるフロンティアリスクを含む、さまざまなリスク領域をカバーしています。私たちは、サミットへの貢献の一環として、自主的な取り組みの範囲内でのフロンティアAIの安全性に関する進捗状況を詳細に報告しています。”

“私たちは、現在の最先端のモデルを超えるフロンティアAIモデルが、人類全体に利益をもたらす可能性があると信じています。しかし、それらはますます深刻なリスクももたらします。フロンティアAIからの災害的なリスクを管理するためには、次のような質問に答える必要があります。フロンティアAIシステムは、現在と将来において誤用された場合、どれほど危険なのか?フロンティアAIシステムの危険な能力に対する監視、評価、予測、保護のための堅牢なフレームワークをどのように構築できるのか?フロンティアAIモデルの重みが盗まれた場合、悪意のある行為者はどのようにそれを利用する可能性があるのか?私たちは、高度なAIシステムの安全性に必要な理解とインフラを確保する必要があります。”

“AIモデルの改善が続く中、リスクを最小限に抑えるために、私たちはPreparednessという新しいチームを立ち上げています。Aleksander Madryが率いるPreparednessチームは、近い将来からAGIレベルの能力を持つモデルまで、フロンティアモデルの能力評価、評価、内部のレッドチーミングを緊密に結びつけます。チームは、個別の説得力、サイバーセキュリティ、化学、生物、放射線、核(CBRN)の脅威、自律的な複製と適応(ARA)など、複数のカテゴリにわたる災害的なリスクを追跡、評価、予測、保護するのに役立ちます。Preparednessチームのミッションには、リスクに基づいた開発ポリシー(RDP)の開発と維持も含まれています。RDPは、厳密なフロンティアモデルの能力評価と監視、保護策のスペクトルの作成、開発プロセス全体の責任と監督のためのガバナンス構造の確立についてのアプローチを詳細に説明します。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Frontier risk and preparedness.