OpenAIは、コンテンツのモデレーションにGPT-4を使用する新しい方法を提案しています。

TechCrunch 2023/8/16 03:15:18(JST)

OpenAIは、GPT-4というAIモデルを使用してコンテンツのモデレーションを行う方法を開発したと主張しています。この技術は、GPT-4にモデレーションの判断を導くポリシーを提示し、ポリシーに違反する可能性のあるコンテンツのテストセットを作成することに依存しています。ポリシーの専門家が例をラベル付けし、それぞれの例をラベルなしでGPT-4に与え、モデルのラベルが専門家の判断とどれだけ一致するかを観察し、その後ポリシーを改善していきます。このプロセスにより、新しいコンテンツモデレーションポリシーの展開にかかる時間を数時間に短縮できると主張しています。

しかし、AIによるモデレーションツールはすでに存在しており、完璧な成績を収めているわけではありません。過去の研究では、一部のモデルは障害を持つ人々に関する投稿をよりネガティブまたは有害として識別できなかったり、差別用語やスペルのバリエーションを認識できなかったりすることが示されています。また、アノテーター(モデルのトレーニングデータセットにラベルを付ける責任を持つ人々)のバイアスも問題となっています。

OpenAIはこの問題を解決したのかというと、まだ完全には解決していないと言えます。OpenAI自体も、モデルのトレーニング中に意図しないバイアスが導入される可能性があると認めています。したがって、AIの結果や出力は注意深く監視し、人間の介入によって検証や改善を行う必要があります。AIの予測力が以前のプラットフォームよりも優れたモデレーションのパフォーマンスを提供できるかもしれませんが、最善のAIでもミスを com忘れないことが重要です。

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:OpenAI proposes a new way to use GPT-4 for content moderation.