「オレオレ詐欺」にAI製クローン音声を用いる事例が急増、被害額は年間15億円近くに

「オレオレ詐欺」にAI製クローン音声を用いる事例が急増、被害額は年間15億円近くに
(GIGAZINE)

「オレオレ詐欺」にAI製クローン音声を用いる事例が急増、被害額は年間15億円近くに

・〔解説〕
既に、詐欺にもAIが使われ始めました。しかも、音声にです。この記事は、アメリカやカナダでのものですが、日本でも遠くないうちに似たような被害が起きるでしょう。

「オレオレ詐欺」の被害でAI技術を用いて作った音声が利用されたと報告されました。本人の声に近いクローン音声は、YouTubeなどから簡単に作られる危険性があるようです。以前は、大量の音声データが必要でしたが、技術の進歩によりYouTubeやFacebook、TikTokなどから30秒ほどの音声が入手できれば、クローン音声を簡単に生成できるようです。勇退した声優の代わりに、AI音声を活用して声を再現することもできます。しかし、詐欺などの犯罪に使われる危険性も増していきます。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です