VentureBeat 2023/10/15 03:40:00(JST)
AIと生成AIはソフトウェアの動作方法を変え、生産性を向上させ、新しい解決策を見つけ、大規模なユニークで関連性のある情報を生成する機会を提供しています。しかし、生成AIが広まるにつれて、データプライバシーや倫理的な問題に関する新たな懸念が生じます。AIは現在人間の能力を補完することができますが、AIの規制はまだ世界的に進化中ですので、人間の監督を置き換えるべきではありません。未チェックの生成AIの使用によるコンプライアンスとプライバシーのリスク、法的な状況の進化、この非常に強力な技術のリスクを最小限に抑え、機会を最大限に活用するためのベストプラクティスについて探ってみましょう。
”
生成AIと大規模言語モデル(LLM)の魅力は、情報を統合し、新しいアイデアを生成する能力にありますが、これらの能力には固有のリスクも伴います。慎重に管理されない場合、生成AIは意図しない問題を引き起こす可能性があります。AIの規制は急速に進化していますが、AIベンダーが新しい機能を発表するスピードほど速くはありません。企業がすべての潜在的なリスクを最小限に抑え、AIの状況が落ち着くのを待とうとすると、市場シェアを失い、顧客の信頼を失う可能性があります。企業はできるだけ早く前進する必要がありますが、現在の規制と法的先例に基づいた時間をかけたリスク低減戦略を使用して潜在的な問題を最小限に抑えるべきです。
”
AIの作成者であるOpenAIのような企業だけでなく、生成AIモデルを実装することによって生じるリスクに取り組む他の企業も存在します。アプリケーションがモデルに大きく依存している場合、違法にトレーニングされたモデルが製品全体を汚染するリスクがあります。例えば、FTCがEveryアプリのオーナーに対して、顔認識技術の使用やアカウントを無効にしたユーザーの写真や動画の保持について消費者を欺いたとして告発した際、親会社であるEveralbumは不正に収集されたデータとそのデータを使用して開発されたAIモデル/アルゴリズムを削除するよう命じられました。これにより、同社のビジネスは事実上消滅し、2020年に閉鎖されました。
”
ニューヨークなどの州では、雇用やチャットボットの開示など、AIの使用を規制する法律や提案が導入されています。EUのAI法案も現在トリローグ交渉中であり、年末までに可決される予定であり、企業はAIによって生成されたコンテンツを透明に開示し、そのコンテンツが違法でないことを確保し、トレーニングに使用された著作権データの要約を公開し、高リスクの使用ケースに追加の要件を含める必要があります。企業のCEOは、組織全体で生産性を向上させるために生成AIツールを採用する圧力を感じていますが、多くの企業はそれらを実装するための組織の準備感を持っていません。規制が詰め込まれ、最初の訴訟の準備が進む中で不確実性が存在しています。しかし、企業は既存の法律とフレームワークをガイドとして活用し、ベストプラクティスを確立し、将来の規制に備えることができます。既存のデータ保護法には、透明性、通知、個人のプライバシー権の遵守などの要件があります。ただし、現在のLLMの状態を考えると、これを展開することは困難かもしれません。しかし、現時点では、生成AIを責任を持って実装する企業にとってのベストプラクティスには、堅固なデータガバナンス、明確な通知、詳細な文書化が含まれます。プライバシーとコンプライアンスチームは、新しい規制に最も適切に対応し、AIの巨大なビジネスチャンスを最大限に活用することができます。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Generative AI and the legal landscape: Evolving regulations and implications.