VentureBeat 2023/8/21 02:10:00(JST)
人工知能(AI)は、特にChatGPTやBardなどの生成型AIアプリが2022年11月以降広く利用可能になって以来、ニュースサイクルを席巻しています。AIは新しい曲を作曲したり、画像を生成したり、メールを起草したりするなど、印象的な成果を上げていますが、その利用や誤用に関しては倫理的な懸念や実用的な問題も浮上しています。特に運用技術(OT)の領域に生成型AIを導入すると、潜在的な影響や最適なテスト方法、効果的かつ安全に利用する方法について重要な問題が生じます。
”
OTの世界では、運用は繰り返しと一貫性が重要です。同じ入力と出力を持つことで、どんな状況でも結果を予測できるようにします。予測できないことが起こった場合、常に人間のオペレーターがデスクの後ろにおり、可能な影響を考慮して迅速に判断を下します。特に重要なインフラ環境では、エラーの結果として生じる潜在的な生命の危険や環境への悪影響、重大な責任問題、長期的なブランドの損害などが考慮されます。そのため、OTの運用においてはAIや他のツールに完全に頼ることはできず、エラーの結果が甚大な影響をもたらすためです。
”
AI技術は多くのデータを使用して意思決定を行い、適切な回答を提供するためのロジックを設定します。しかし、OTではAIが正しい判断を下さない場合、潜在的な悪影響は深刻で広範囲にわたり、責任の所在も明確ではありません。そのため、AIの制御下にある重要なインフラを持つAIシステムに対して政府主導のAI安全フレームワークや安全ブレーキを導入する必要があります。これにより、新たな能力が現れるにつれてAIを適切に制御する方法を社会が決定することができます。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:AI in OT: Opportunities and risks you need to know.