GIZMODO 2023/7/21 23:46:00(JST)
世界の主要なテクノロジー企業7社が、人工知能(AI)による潜在的なリスクを管理するための新たな取り組みに合意するため、バイデン政権と会合を開いた。これには、AI製品のリリース前に外部の第三者テストを行うことや、AIシステムを使用して音声や映像を生成した場合には、そのことを一般に知らせるための透かしシステムの開発などが含まれている。これらの自主的な取り組みは、テクノロジー企業による自己規制を意味し、AIリスクを適切に管理するために必要な最初の一歩とされている。
”
安全、セキュリティ、信頼の3つの原則を中心に、テクノロジー企業は、リリース前に内部および外部のテストを実施することに同意する。また、安全性や保護策の回避を試みる結果を業界、政府、市民社会と共有することも同意する。セキュリティに関しては、企業は追加のサイバーセキュリティと内部の脅威対策を投資し、システムの脆弱性を発見し報告する第三者をサポートすることに同意する。また、テクノロジー企業は、コンテンツがAIによって生成されたものであることをユーザーが知るための透かしのような技術的な仕組みを開発すると述べている。
”
これらの取り組みは、ディープフェイクの脅威に対抗し、一般の信頼を築くことを目的としている。また、AI製品が持つバイアス、プライバシー、差別のリスクを示す研究を優先することも合意している。これらの取り組みは、AI開発における責任あるガードレールの確立に向けた重要な第一歩であり、テクノロジー企業はシステムの動作方法について透明性を持ち、業界、政府、学術界、市民社会と緊密に協力すべきだと述べている。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Top AI Companies to Meet With Biden, Commit to Third-Party Testing and Watermarking.