規制当局が厳しい言葉を口にする中、AIの偏りに取り組むことはこれほど緊急性を持った課題となったことはありません。

VentureBeat 2023/9/10 01:40:00(JST)

強力な生成型AIツールであるChatGPTの台頭は、今世代の「iPhoneの瞬間」と形容されています。ChatGPTを試すことができるOpenAIのウェブサイトは、3月には8億4700万人のユニークな月間訪問者を記録しました。この人気の爆発に伴い、gen AIへの監視のレベルは急速に上昇し、いくつかの国が消費者を保護するために迅速に行動しています。イタリアは4週間後に禁止を解除しましたが、プライバシーの観点からChatGPTを最初にブロックした西洋諸国となりました。他のG7諸国も調整された規制の取り組みを検討しています。”

“AIバイアスという問題がAIの安全性についての議論を覆い隠している可能性があります。AIバイアスは、AIモデルの訓練に使用されるデータセットに人間のバイアスが入り込むことで発生します。このデータとその後のAIモデルは、サンプリングバイアスや確証バイアス、人間のバイアス(性別、年齢、国籍、人種など)を反映し、AI技術の出力の独立性と正確性を損ないます。gen AIがより洗練され、社会に影響を与えるようになるにつれて、AIバイアスへの対処はますます緊急な課題となっています。”

“AIバイアスの例は既に多くのケースで観察されています。OpenAIのDall-E 2は、芸術作品を作成するために使用される深層学習モデルで、フォーチュン500のテック創業者の画像を作成するように求められた際、提供された画像はほとんどが白人の男性でした。また、ChatGPTによる人気文化の人物に関する知識についての疑問に対して、追加のプロンプトなしでは回答できず、人種的なバイアスについての知識に疑問が生じました。マイナリティの申請者に対してローンの承認または拒否を決定するために設計されたAIモデルに関する2021年の研究では、信頼性のあるローンの提案ができなかったことが明らかになりました。これらの事例は、AIバイアスが人種や性別を誤って表現する可能性があり、ユーザーに深刻な影響を与えることを示しています。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:As regulators talk tough, tackling AI bias has never been more urgent.