VentureBeat 2023/8/3 07:43:51(JST)
現在の人工知能(AI)の世界では、大規模な言語モデル(LLM)に関する話題が、ますます大きなニューラルネットワークの作成競争につながっています。しかし、すべてのアプリケーションが非常に大きな深層学習モデルの計算およびメモリ要件をサポートできるわけではありません。このような環境の制約は、興味深い研究方向を生み出しています。
”
MITのコンピュータサイエンスおよび人工知能研究所(CSAIL)の研究者が開発した新しいタイプのディープラーニングアーキテクチャである液体ニューラルネットワーク(LNN)は、特定のAIの問題に対してコンパクトで適応性があり効率的な解決策を提供します。これらのネットワークは、従来の深層学習モデルの固有の課題に対処するために設計されています。ロボットや自動運転車など、従来の深層学習モデルが苦労する領域では、液体ニューラルネットワークは新しいイノベーションを促進する可能性があります。
”
液体ニューラルネットワークは、従来の深層学習モデルとは大きく異なるアプローチを取っています。彼らは計算コストが低く、訓練中にニューロンを安定させる数学的な形式を使用しています。LNNの効率性の鍵は、動的に調整可能な微分方程式の使用にあり、これにより訓練後も新しい状況に適応することができます。これは通常のニューラルネットワークには存在しない機能です。また、LNNは従来のニューラルネットワークとは異なる配線アーキテクチャを使用し、同じ層内での横方向および再帰的な接続を可能にします。数学的な方程式と新しい配線アーキテクチャにより、液体ネットワークは動的に振る舞いを調整することができる連続時間モデルを学習することができます。
”
液体ニューラルネットワークの最も注目すべき特徴の1つは、そのコンパクトさです。例えば、車を車線に保つというタスクを実行するためには、従来の深層ニューラルネットワークには約10万個の人工ニューロンと50万個のパラメータが必要ですが、LNNではわずか19個のニューロンで同じタスクを達成することができました。このサイズの大幅な削減には、いくつかの重要な影響があります。まず、ロボットやエッジデバイスに搭載されている小型コンピュータでモデルを実行できるようになります。また、ニューロンが少ないため、ネットワークはより解釈可能になります。解釈可能性はAIの分野で重要な課題です。従来の深層学習モデルでは、モデルが特定の意思決定に至った方法を理解することが難しい場合があります。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:How MIT’s Liquid Neural Networks can solve AI problems from robotics to self-driving cars.