TechCrunch 2023/6/30 06:30:46(JST)
ジェネレーティブAIは、新しい製品や企業、産業、経済を生み出す可能性を持っていますが、その独自の能力はセキュリティとプライバシーの懸念を引き起こしています。企業は、トレーニングデータやモデル、出力に対する権利や、将来生成されるデータに対するシステム自体の権利など、新たな問題に直面しています。これらの懸念を解決するためには、機密性のあるコンピューティングが必要です。機密性のあるコンピューティングは、データの使用中にデータを保護し、コードの整合性を確保する新しいデータセキュリティのアプローチです。
”
ジェネレーティブAIは、企業のプロプライエタリデータの管理と規制要件の遵守を困難にします。従業員が機密のビジネス文書やクライアントデータ、ソースコードなどをジェネレーティブAIに入力することで、知的財産の大量の漏洩が起こる可能性があります。これらのリスクを軽減するためには、トレーニングデータとモデルの保護が最優先です。ジェネレーティブAIの結果が重要な意思決定に使用される場合、コードとデータの整合性の証拠が重要です。このようなセキュリティの基盤として、機密性のあるコンピューティングが有効です。
”
機密性のあるコンピューティングは、データと知的財産をインフラストラクチャの所有者から完全に分離し、信頼できるCPU上で実行される信頼できるアプリケーションのみがアクセスできるようにします。データのプライバシーは暗号化によって保護され、攻撃リスクが軽減されます。ジェネレーティブAIの安全な展開を支援するために、リーダーたちは機密性のあるコンピューティングを真剣に考慮し、その影響を理解する必要があります。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:How confidential computing could secure generative AI adoption.