OpenAI、Google、Microsoft、およびAnthropicは、安全な「フロンティアAI」の開発を監督するための組織を形成します。

TechCrunch 2023/7/26 20:37:13(JST)

AI開発の安全性と責任ある開発を確保するため、AI開発企業のOpenAI、Microsoft、Google、Anthropicが連携し、新たな業界団体「Frontier Model Forum」を設立することを発表しました。この団体は、技術的な評価や基準の開発、ベストプラクティスや標準の推進を通じて、AIの「フロンティアモデル」と呼ばれる危険なAIモデルの安全性を確保することを目指しています。フロンティアモデルは、予期せぬ危険な機能を持つため、規制の課題があります。”

“Frontier Model Forumの目標は、①フロンティアモデルの安全な開発と研究の推進、②フロンティアモデルの責任ある開発と展開のためのベストプラクティスの特定、技術の性質や影響を一般の人々に理解してもらうこと、③政策立案者、学術界、市民社会、企業との協力を通じて信頼性と安全性のリスクに関する知識を共有すること、④気候変動の緩和や早期がん検出、サイバー脅威対策など、社会の重要な課題に対応するアプリケーションの開発を支援することです。”

“Frontier Model Forumは現在4つのメンバーで構成されていますが、新たなメンバーの参加も歓迎しています。参加資格は、フロンティアAIモデルの開発と展開を行い、フロンティアモデルの安全性に強いコミットメントを持つ組織です。最初のステップとして、創設メンバーはアドバイザリーボードの設立と、チャーター、ガバナンス、資金構造の確立を進める予定です。また、民間社会や政府との協力についても意見を聞く予定です。”

“このFrontier Model Forumの設立は、AI業界が安全性に対する懸念を真剣に受け止めていることを示す一方で、ビッグテック企業が自主的な取り組みを通じて規制を回避し、独自のルールを作りたいという意図も示しています。一方、ヨーロッパではAIの安全性、プライバシー、透明性、非差別性を確保する具体的なルールブックが進められており、バイデン大統領も規制監督の必要性を示唆しています。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:OpenAI, Google, Microsoft and Anthropic form body to oversee safe ‘frontier AI’ development.