GIZMODO 2023/7/21 18:00:00(JST)
世界の主要なテクノロジー企業7社が、人工知能(AI)による潜在的なリスクを管理するための新たな取り組みに合意するため、バイデン政権と会合を開いた。これには、AI製品のリリース前に外部の第三者テストを行うことや、AIシステムを使用して音声や映像を生成した場合には、一般の人々にそのことを知らせるための透かしシステムの開発などが含まれている。これらの自主的な取り組みは、テクノロジー企業による自己規制を意味し、AIリスクを適切に管理するために必要な最初の一歩とされている。
”
安全、セキュリティ、信頼の3つの原則を中心に、企業はモデルをリリースする前に内部および外部のテストを実施することに同意する。また、安全性や保護策の回避を試みる結果について、業界、政府、市民社会と情報を共有することも同意する。セキュリティに関しては、企業は追加のサイバーセキュリティと内部の脅威対策を投資し、システムの脆弱性を発見し報告する第三者をサポートすることに同意する。興味深いことに、テクノロジー企業は、コンテンツがAIによって生成されたものであることをユーザーが知るための透かしのような技術的な仕組みを開発すると述べている。これらの取り組みは、ディープフェイクの脅威に対抗し、一般の人々の信頼を築くことを目的としている。
”
これらの企業のいくつかは、すでにこの合意で示されている目標に向けて取り組んでいる。例えば、OpenAIは以前、研究者にGTP-4の高度なバージョンを提供し、モデルを悪意のある発言をするように圧力をかけることで改善を図っていた。MicrosoftもすでにAIによって生成された画像や動画に透かしを入れることを約束している。これらの企業がこれらの取り組みを放棄した場合にどのようなペナルティが科されるかは不明である。バイデン政権は、これら7社を同じ合意の下に集めることを意図しており、これは公式にはAIシステムに取り組む他の数百の小規模企業には影響を与えないが、業界全体で同様の道を進むことを促すことを期待している。
”
バイデン政権は、安全で安全なAIを確保するための行政命令の策定を進めており、イノベーションの余地を残しつつ、AIを保護するためのバイパートンのAI法案を議会と協力して進めている。これらの取り組みは次のステップであり、最後のステップではないと、政府関係者は述べている。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Top AI Companies to Meet With Biden, Commit to Third-Party Testing and Watermarking.