VentureBeat 2023/9/10 03:07:00(JST)
大規模な言語モデル(LLM)と生成AIの急速な普及は、セキュリティチームに新たな課題をもたらしています。従来のデータ保護に焦点を当てたセキュリティパラダイムでは、gen AIはデータを適切でない人々に渡さないことに重点を置いているため、対応が必要です。
”
LLMsを利用したサービス(OpenAI、Hugging Face、Anthropicなど)の上に、新たな産業が築かれています。また、MetaのLLaMAやOpenAIのGPT-2など、オープンなモデルも存在します。
”
これらのモデルへのアクセスは、組織の従業員がビジネスの課題を解決するのに役立つかもしれません。しかし、さまざまな理由で直接これらのモデルにアクセスできない場合、従業員はブラウザ拡張機能、SaaS生産性アプリ、Slackアプリ、有料APIなどのツールを探し、簡単にモデルを使用できるという約束を求めます。
”
これらの仲介者は、影のITの新たな源となっています。Chrome拡張機能を使用してより良い営業メールを書くことは、ベンダーを使用することではなく、生産性のハックのように感じられます。多くの従業員にとって、これらを第三者と共有することで重要な機密データの漏洩を引き起こしていることは明らかではありません。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Generative AI: A pragmatic blueprint for data security.