TechCrunch 2023/11/14 18:53:36(JST)
フランスのスタートアップ、Giskardは、大規模な言語モデルのためのオープンソースのテストフレームワークを開発しています。このフレームワークは、バイアスやセキュリティのリスク、有害なコンテンツの生成能力など、開発者に警告を与えることができます。AIモデルに対する規制がEUのAI法案や他の国々で施行されることにより、AIモデルの開発企業は一定のルールに準拠し、リスクを軽減することを証明しなければなりません。Giskardは規制を受け入れるAIスタートアップであり、効率的なテストに特化した開発者ツールの先駆的な例です。
”
Giskardのテストフレームワークには3つのコンポーネントがあります。まず、同社はオープンソースのPythonライブラリをリリースしており、LLMプロジェクト(特に検索増強生成(RAG)プロジェクト)に統合することができます。このライブラリはGitHubで人気があり、Hugging Face、MLFlow、Weights&Biases、PyTorch、Tensorflow、LangchainなどのMLエコシステムの他のツールとも互換性があります。Giskardは、モデルのパフォーマンス、幻覚、誤情報、非事実の出力、バイアス、データ漏洩、有害なコンテンツの生成、プロンプトの注入など、さまざまな問題をカバーするテストスイートを生成するのを支援します。
”
Giskardの2番目の製品はAI品質ハブであり、大規模な言語モデルをデバッグし、他のモデルと比較するのに役立ちます。この品質ハブはGiskardのプレミアムオファリングの一部です。将来的には、このスタートアップはモデルが規制に準拠していることを証明するドキュメントを生成できるようになることを期待しています。また、Giskardの3番目の製品であるLLMonは、ユーザーに応答を返す前にLLMの回答をリアルタイムで評価するモニタリングツールです。現在はOpenAIのAPIとLLMを使用している企業と連携していますが、Hugging FaceやAnthropicなどとの統合も進めています。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Giskard’s open-source framework evaluates AI models before they’re pushed into production.