VentureBeat 2023/8/27 01:10:00(JST)
企業は、生成型AIの力を認識し、新しいアイデアを発見し、開発者と非開発者の生産性を向上させることができるとすぐに認識しました。しかし、機密性の高いデータを公開された大規模な言語モデルに送ることは、セキュリティ、プライバシー、ガバナンスのリスクを生み出します。これらの強力な新技術から利益を得る前に、企業はこれらのリスクに対処する必要があります。
”
企業は、LLMが彼らのプロンプトから学び、類似のプロンプトを入力する他の企業に独自情報を開示する可能性があるという合理的な懸念を持っています。また、企業は共有した機密データがオンラインで保存され、ハッカーにさらされたり、誤って公開されたりする可能性があることも心配しています。
”
企業は、LLMにデータを送る代わりに、LLMをデータに持ち込むことで価値を引き出すことができます。これは、イノベーションの必要性と顧客の個人情報や他の機密データの安全性の重要性をバランスさせるために、ほとんどの企業が採用するモデルです。大企業は既にデータのセキュリティとガバナンスの境界を維持しており、それらの保護された環境内でLLMをホストおよび展開すべきです。これにより、データチームはLLMをさらに開発およびカスタマイズし、従業員はそれと対話することができます。すべては組織の既存のセキュリティ範囲内で行われます。
”
LLMを最適化することで、高品質の結果を得るだけでなく、リソースの需要を削減することもできます。企業向けの特定のユースケースをターゲットにした小規模なモデルは、一般的なユースケースや異なる業界にわたる多様な企業ユースケース向けのモデルよりも、より少ない計算パワーとメモリサイズを必要とします。組織内のデータを使用してモデルをカスタマイズすることで、より効率的な方法でLLMを実行することができます。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:How to minimize data risk for generative AI and LLMs in the enterprise.