報告書によると、イギリスのAI安全性へのアプローチには信頼性が欠如していると警告されています。

TechCrunch 2023/7/18 08:00:02(JST)

イギリス政府は、AIの安全性に関する国際的なリーダーとしてのイメージを築こうとしていますが、国内でのAIの適用に関する新たな法律を制定する必要性を避けています。また、データ保護フレームワークの規制緩和を進めるなど、AIの安全性に対する政府のアプローチは矛盾しています。独立研究機関のAda Lovelace Instituteは、イギリスのAI規制についての報告書で、政府のアプローチに改善の余地があると指摘しています。報告書は、政府の方針や信頼性を向上させるための18の推奨事項を提案しています。”

“イギリス政府は、AIの安全性に関する国際的なサミットの開催や、AI安全性研究のための基礎モデルタスクフォースへの1億ポンドの投資など、AIの安全性を重視していると主張していますが、具体的な規制策については軽視しています。イギリスの規制アプローチは、柔軟な原則を提案しているものの、AIの安全性を規制するための具体的なルールや新たな権限は提供されていません。これにより、AIのリスクや害に対する保護策が不十分となる可能性があります。”

“Ada Lovelace Instituteは、政府がデータ保護法改革によって個人のデータ保護を低下させる一方で、AIの安全性を重視するという立場が矛盾していると指摘しています。報告書では、政府に対してデータ保護法改革の一部を見直し、AIによって影響を受ける人々の権利と保護を強化するよう勧告しています。また、規制当局に対しても、AIに関連する害に対処するための資金や権限を提供することが求められています。”

(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:UK’s approach to AI safety lacks credibility, report warns.