GIZMODO 2023/5/29 21:00:00(JST)
人工知能(AI)によって書かれた信頼性の高いニュース記事が現実のものとなり、ライターや編集者、政策立案者がAI生成テキストがニュースフィードに散在する世界で信頼を維持するための基準を開発する必要がある。CNETなどの主要なテック出版社は、ChatGPTスタイルのチャットボットによって書かれた記事に誤りがあったため、訂正を発行する必要があった。一方、Insiderなどの他の主要機関は、今のところAIをニュース記事に控えめに使用している。低品質のコンテンツファームは、チャットボットを使用してニュース記事を大量生産しており、その中には潜在的に危険な事実の誤りが含まれているものもある。”
AIの透明性と責任に関する問題は、SmartNewsのTrust and Safetyの責任者であるArjun Narayanの心を占める最も困難な課題の一つである。Narayanは、AI生成テキストがニュースフィードに散在する世界で、ニュース機関がAIコンテンツにどのようにアプローチすべきか、読者の信頼を築き、育成する方法、そして生成AIの不確実な近い将来に何を期待すべきかについて、Gizmodoと話した。”
AIが記事を生成すること自体には何も問題がないが、そのコンテンツがAIによって生成されたことをユーザーに透明にすることが重要である。また、AIによって生成されたコンテンツについて、正確性や政治的な傾向を確認するために、人間の監視が必要である。これらの原則が守られている限り、AI生成テキストは将来に向けて進む道がある。”
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:‘Are We Waiting for S**t to Hit The Fan?’: Former Google Safety Lead Warns of AI Chatbots Writing News.