AI倫理はますます軽視されている

TechCrunch 2023/12/24 01:01:37(JST)

AI業界の最新情報や注目の研究、実験について、まとめて紹介します。先週はホリデーシーズンに向けてニュースが少し落ち着きましたが、書くべき話題には事欠かなかったようです。APの見出しには「AI画像生成器が児童の露骨な写真で訓練されている」とありました。この話の要点は、多くの人気のあるオープンソースや商用のAI画像生成器に使用されるデータセットであるLAIONには、児童性的虐待の疑いがある数千枚の画像が含まれているということです。監視団体であるスタンフォードインターネットオブザバトリーは、違法な素材を特定し、関連リンクを法執行機関に報告するために、反虐待の慈善団体と協力しました。LAIONは現在、問題のある素材を削除して再公開することを約束しています。”
“AIの普及により、ジェネレーティブAIをあらゆるデータセットに簡単に訓練することが可能になっています。これはスタートアップや大手企業にとって利点ですが、参入障壁が低くなる一方で、倫理を軽視して市場への加速した進出を図る誘惑も生じています。倫理は困難な問題ですが、例えばLAIONの問題画像のように、問題のある画像を取り除く作業は一夜にして行われるものではありません。倫理的なAIの開発には、AIシステムによってマージナライズされ、不利な影響を受ける可能性のあるグループを代表する組織を含む関係者と協力することが理想です。”
“AIの優位性を追求する過程で、害が生じていることは明らかです。株主ではなく倫理学者を考慮に入れたAIのリリースの決定が行われるべきです。例えば、Microsoft Copilot(以前のBing Chat)は、ジャーナリストをヒトラーと比較し、外見を侮辱する発言をしました。GoogleのChatGPTの競合製品であるChatGPTやBardも、過時で人種差別的な医療アドバイスを提供し続けています。OpenAIの画像生成器DALL-Eの最新バージョンにも、アングロセントリズムの兆候が見られます。EUのAI規制の施行により、いくつかの希望が見えてきましたが、まだまだ長い道のりが待っています。

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:This week in AI: AI ethics keeps falling by the wayside.