英国の4人に1人が「AI音声詐欺」の標的に。回避方法は?
-
音声認識アプリ、チャットボット、AI家電など、ますます身近になるAI。ただし、技術が進歩するほど、悪用される懸念も高まっています。
そんなケースの一つが、AI音声生成による詐欺事件。先日発表された調査で、英国の4人に1人以上がすでに詐欺の標的になったことがわかりました。
AI音声生成は、わずか数秒程度の短時間の音声ファイルがあれば、その人物とそっくりの音声を作れるというもの。これを悪用する犯人は、SNSなどインターネット上にアップロードされた動画、ボイスメールから、その人物に似せた音声を作ります。そして、その人物や家族の住所を特定し、電話をかけたり音声メッセージを送りつけたりして、事故の賠償や家賃の支払いを理由に金銭を要求するという手口です。
英スターリング銀行が3000人を対象に行った調査結果によると、過去1年間に少なくとも1回、AI音声生成詐欺のターゲットにされた経験があると答えた人は、全体の28%もいることがわかったのです。