GIZMODO 2023/7/1 22:00:00(JST)
人工知能(AI)の急速な進歩により、一部の専門家は研究の一時停止を求め、AIによる人類の絶滅の可能性を指摘し、政府の規制を求めています。彼らの懸念の中心には、AIが非常に強力になり、我々がそれを制御できなくなる可能性があるという考えがあります。しかし、私たちはより基本的な問題を見落としているのでしょうか?
”
今日のAIツールの中でも印象的で柔軟なものは、例えばChatGPTの背後にある大規模な言語モデルなどですが、逆効果になることもあります。なぜなら、これらのツールには2つの重要な弱点があります。それは、意思決定者が因果関係や不確実性を理解するのを助けてくれないこと、そして大量のデータを収集することを促し、プライバシーや法的・倫理的な問題やリスクに対する慢心な態度を生み出すことです。
”
AIシステムは、因果関係を推論するために「ビッグデータ」を必要としません。代わりに、有用な情報が必要です。情報の有用性は、問題や意思決定、およびその結果に対する価値に依存します。したがって、私たちが本当に知らないことを教えてくれるAI技術を開発することが解決策です。
”
AIシステムは、価値のある情報を特定し、それを人間には難しい場所や速度で収集・保存することができます。これらのシステムは、ベイジアン意思決定理論の枠組みを適用しており、説明可能で透明性があり、明示的な仮定に基づいて構築されています。彼らは因果関係の経路を推定し、最適な介入を最適なタイミングで行うために設計されています。また、影響を受けるコミュニティと共同設計・共同実施されることで人間の価値観を取り入れています。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:How Should an AI Explore the Moon?.