GIZMODO 2023/7/26 06:57:00(JST)
米国防総省の資金提供による新しい研究によると、人工知能はテキストをスキャンし、それを書いた人が何か間違ったことをしたかどうかを判断することができるという。この研究では、Ben-Gurion大学の2人の研究者が、テキストメッセージの「社会的規範違反」と呼ばれるものを分析するための予測モデルを活用している。彼らはGPT-3(OpenAIが作成したプログラマブルな大規模言語モデル)とゼロショットテキスト分類というデータ解析方法を使用し、テキストメッセージの「規範違反」の広範なカテゴリを特定することができた。研究者は、社会的規範とその違反についての自動識別は重要な課題であり、社会的感情が規範違反の自動識別に重要な役割を果たすことを示唆していると結論付けた。
”
研究者は、AIを使用してモバイルユーザーが何かを後悔しているかどうかを理解するために、社会的規範違反を特定するための建設的な戦略は、罪悪感と恥を重点的に扱うことであると結論付けた。彼らはGPT-3を使用して「合成データ」を生成し、ゼロショットテキスト分類を活用して、そのデータ内で「社会的感情」を自動的に特定する予測モデルを訓練した。彼らの希望は、この分析モデルを利用してテキスト履歴を自動的にスキャンし、不正行為の兆候を見つけることである。
”
この研究は、米国防総省のDARPA(国防高等研究計画局)によって資金提供されたものであり、DARPAは米国の軍事研究開発の最前線に位置しており、ドローン、ワクチン、インターネットなど、重要な技術革新の創造に頻繁に貢献してきた。研究者は、彼らのプロジェクトがDARPAの計算文化理解プログラムによって支援されたと述べており、これは「異文化間の言語理解技術を開発し、DoD(国防総省)のオペレーターの状況認識と相互作用の効果を向上させる」ことを目的としたものである。この研究がなぜ「社会的規範違反」のトピックを研究したいのかは不明であり、GizmodoはDARPAに追加の文脈を求めたが、回答があればこの記事を更新するとしている。
”
要するに、この研究は感情分析の一形態であり、監視産業複合体の既にかなり探求された領域の一つである。また、AIが米国の防衛コミュニティの権限を広げるために不可避に使用されることを示すものでもある。
(※本記事はAIによって自動的に要約されています。正確な情報は引用元の記事をご覧ください。)
(※画像はAIによって自動で生成されており、引用元とは関係ありません。)
引用元の記事:Pentagon-Funded Study Uses AI to Detect ‘Violations of Social Norms’ in Text.