2024年は「拡張された意識」の年となる理由

VentureBeat 2024/1/2 05:15:00(JST)

近い将来、AIアシスタントが耳の中に住み着き、日常生活の中で指示を囁くようになる。これにより、混雑した店舗で買い物をする際や、子供を小児科医に連れて行く際、自宅の食器棚から急いでスナックを取る際にも、役立つ情報を提供してくれる。また、友人、親戚、同僚、他人との社会的な交流を含む、あらゆる経験を仲介する。しかし、このAIアシスタントが私たちの行動、言動、思考、感情に影響を与えることに対して、多くの人々は不気味さを感じるだろう。それでも、社会としてこの技術を受け入れ、リアルタイムのアシストがない生活がどれほど不便だったか疑問に思うようになるだろう。


次世代のAIアシスタントは、単なる音声コマンドで簡単な要求をすることができるSiriやAlexaのような従来のツールとは異なり、新たな要素である「コンテキスト認識」を備える。この追加機能により、言葉だけでなく、AI搭載デバイスに搭載されたカメラやマイクによって現在の視覚と音響を捉え、周囲の状況に応じた反応が可能になる。これにより、どこにいても、自分が何をしているか、何を言っているか、何を見ているかに合わせて、貴重な情報が提供される。しかし、企業がこれらの信頼できるアシスタントを利用してターゲット向けの会話型広告を展開する場合、この常に存在する声は高い説得力を持ち、操作的になる可能性がある。


AIの操作リスクは緩和できるが、これまでほとんど無視されてきたこの重要な問題に政策立案者が焦点を当てる必要がある。もちろん、規制当局はあまり時間を持っていなかった。コンテキスト認識型アシスタントを一般的に使用可能にする技術は、まだ1年未満しか利用できない。マルチモーダル大規模言語モデル(LLMs)というこの技術は、テキストだけでなく、画像、音声、動画も入力として受け入れることができる新しいクラスのLLMsであり、AIシステムに独自の視覚と聴覚を与える。これにより、リアルタイムのアシスト中に私たちの周りの世界を評価することができる。

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Why 2024 will be the year of ‘augmented mentality’.