OpenAIのGPTに話す内容には注意してください。

GIZMODO 2023/11/30 02:15:00(JST)

OpenAIのGPT Storeは、カスタマイズ可能なチャットボットのマーケットプレイスであり、近日中に展開される予定です。しかし、GPTを構築する際には、個人情報をアップロードする際に注意が必要です。セキュリティ企業のAdversa AIの調査によると、GPTは質問をするだけで、構築方法や教育に使用されたソースドキュメントなどのデータを漏洩させる可能性があります。”

この脆弱性は、プロンプトの漏洩と呼ばれるもので、戦略的な質問の連続によってGPTを構築方法を明らかにすることができます。この脆弱性により、ハッカーは他人のGPTを完全にコピーすることができ、GPTを商業化しようとする人々にとって重大なセキュリティリスクとなります。また、プロンプトの漏洩により、GPTが訓練された文書やデータが明らかになる可能性もあります。”

これらの脆弱性により、GPTを構築する人々は機密データをアップロードすべきではありません。もしGPTの構築に使用されたデータが漏洩する可能性があるならば、開発者は利用できるアプリケーションが大幅に制限されることになります。OpenAIはこれらの脆弱性を常に修正していますが、Adversa AIが見つけたようなゼロデイの脆弱性は常に巧妙なハッカーによる回避策が存在します。これらの脆弱性は、Altman氏のビジョンである誰もがGPTを構築して使用するという考えに大きな問題を提起する可能性があります。セキュリティは技術の基盤であり、安全なプラットフォームがなければ誰もが構築したくないでしょう。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Be Careful What You Tell OpenAI’s GPTs.