GIZMODO 2023/8/1 06:21:00(JST)
最新のAI研究論文の1つは、深層学習モデルが人間を超える認知能力を持っているという非現実的な主張をしています。しかし、研究者たちは、現代のプレトレーニングトランスフォーマーモデルが言語を必要としない多肢選択テストで良い結果を出しているものの、AIが訓練データに基づいて答えを出しているのか正直にはわかっていません。
”
ロサンゼルスのカリフォルニア大学の研究者たちは、GPT-3という大規模な言語モデルで「類推的な課題」をテストし、複雑な推論問題の解決能力が「人間の能力」に達しているかそれ以上であることを発見しました。しかし、この研究についてカリフォルニア大学ロサンゼルス校は、AIが「基本的に新しい種類の認知プロセス」を使用している可能性があるという非現実的な主張を行いました。
”
研究者たちは、非言語テストである「レイヴンの進行的行列」を基にテストを行いました。このテストは1939年に開発された60の多肢選択問題で、問題が難しくなるにつれて、パターンを特定する必要があります。研究者たちは、AIの回答を40人の学部生の回答と比較し、AIは人間のスコアの上位に位置し、同じ間違いもいくつかしていることを発見しました。
”
AIは短編小説に基づく類推問題を解く能力には劣っており、新しいGPT-4の方が全体的に優れていることがわかりました。また、AIには「奇妙な解決策」が出てしまうこともあります。研究者たちは、AIが人間と同じように形状の比較を行うことで、AIが「人間の類推的な推論」と多くの共通点を持っていると述べています。
”
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Is ChatGPT Smart Enough to Solve Problems Without Words?.