VentureBeat 2023/7/31 01:10:00(JST)
Open AIがChatGPTをリリースした当初、私にはまるで神託のように思えました。オンラインで利用可能な人間の関心や知識の総体を大まかに表現した膨大なデータに基づいて訓練されたこの統計的予測機械は、一つの真実の源として役立つのではないかと考えました。しかし、この技術の弱点がすぐに現れ、答えを幻覚する傾向があることが明らかになりました。さらに、他の多くのチャットボットが登場し、同じプロンプトに対して異なる結果を提供することも明らかになりました。これらのチャットボットは、モデルやトレーニングデータ、モデルに提供されたガードレールによって結果が大きく異なります。”
“これらのガードレールは、トレーニングデータに内在するバイアスを防ぐために設けられていますが、OpenAIが提供したガードレールには賛成しない人もいました。保守派は、このボットの回答が明らかにリベラルなバイアスを持っていると不満を述べました。これに対し、Elon MuskはChatGPTよりも制約の少ない、政治的に正しいチャットボットを作ると宣言しました。”
“さらに、AnthropicはClaudeというチャットボットに「憲法」を導入しました。この憲法は、ユーザーとのやり取りにおいてClaudeが守るべき価値観や原則を明記しています。Metaも最近、LLaMA 2という大規模な言語モデルをオープンソースとして公開しました。これらのモデルは、制約の少ないオープンソースの生成型AIモデルとして利用できます。しかし、これらのモデルにはガードレールを破る効果的なプロンプティング技術が存在し、潜在的な危険性があることが報告されています。”
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Fragmented truth: How AI is distorting and challenging our reality.