LLM(法務修士)は、数十年にわたる象徴的なAIプロジェクトから利益を得ることができる可能性があります。

VentureBeat 2023/8/19 00:00:00(JST)

大規模な言語モデル(LLM)を実用的なアプリケーションに活用する上での主な障壁は、予測不可能性、推論の欠如、解釈の困難さです。これらの課題に対処できなければ、LLMは重要な状況で信頼できるツールとはなりません。認知科学者のゲイリー・マーカスとAIの先駆者であるダグラス・レナットは、この課題を16の信頼性のある一般AIの要件にまとめ、LLMのアプローチとより形式的なアプローチを組み合わせる必要性を提案しています。彼らは、LLMの研究がレナットが40年以上前に開発した象徴的なAIシステムであるサイクというシステムから学び、恩恵を受けることができると主張しています。”

“マーカスとレナットは、AIが人間とまったく同じ方法で考える必要はないとしながらも、高い誤りのコストがかかる場面で信頼されるためには16の能力が必要であると述べています。しかし、LLMはこれらの領域で苦労しています。例えば、AIは自分の回答の推論の過程を説明できるべきであり、推論の連鎖に持ち込む知識と証拠の出所を追跡できるべきです。また、推論が論理的に結論に達しない場合に最善の決定をするために、演繹的、帰納的、推論的な推論の重要性も指摘されています。”

“マーカスとレナットは、サイクとLLMの組み合わせによって、LLMの幻想問題を解決することができると提案しています。サイクとLLMはお互いの出力を検証し合い、幻想の可能性を減らすことができます。また、サイクはLLMのトレーニングに供されるデータを事実確認し、誤りを除外することも提案されています。このように、サイクはLLMに知識と推論のツールを提供し、出力の逐次的な説明を強化し、透明性と信頼性を向上させることができます。一方、LLMは自然言語の文をサイクが理解する言語であるCycLに翻訳するようにトレーニングされることで、両システムのコミュニケーションを可能にし、Cycへの新しい知識の生成にも役立つことができます。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:How LLMs could benefit from a decades’ long symbolic AI project.