20 March 2025
【書誌情報】
【論文要旨】
生成AIによる偽誤情報の拡散に対する懸念が高まる中、Google、Meta、TikTokなどの大手プラットフォームは、AI生成コンテンツについてユーザーにラベル等で警告する新たなポリシーを導入しました。しかし、AI生成コンテンツにラベルを付すユーザーインターフェースデザインがユーザーの認識に与える影響については、まだ十分に理解されていません。本研究では、生成AIによって生成されたコンテンツであることを警告した場合に、人々が動画コンテンツの正確性をどのように評価するかを調査しました。米国でオンライン実験を実施し、参加者の半数には、ソーシャルメディア上の動画コンテンツのモックアップを閲覧する前後に、コンテンツがAIによって生成されたことを伝える警告メッセージを表示し、もう半数には同じ動画を警告メッセージなしで閲覧してもらいました。その結果、AIに対してポジティブな印象を持っている人々のみで、警告メッセージがコンテンツの真偽判別能力に影響を与えることが分かりました。一方、AIに対して否定的な印象を持つ人々が生成AIによって動画が作成されたことを知ると、AIが作成した動画投稿を、誤った情報を含まないものも含めてすべて正確性が低いと認識する傾向にありました。これらの結果は、生成AIによる偽誤情報への対策において単純な警告文を示すインターフェイスデザインのみに頼ることの限界を示唆します。