目次
AI(人工知能)技術の発展と普及に伴い、AIを悪用する詐欺被害が国内外で急増しています。
AIを悪用した代表的な手口は、テレビ電話や動画などで、顔、姿、音声を他人になりすまし、お金を振り込ませるという詐欺行為です。
専門的な用語で、AIで他人になりすますことをディープフェイクとも呼びます。
顔や姿をAIで生成したり、他人になりすますことができるAIアプリやAIツールが日本よりも先行して普及しているアメリカ、中国などではAIなりすまし詐欺が既に急増し、社会問題化しており、日本国内でも今後さらに被害が増えることが想定されますのでくれぐれもご注意ください。
このページでは、AIなりすまし詐欺から身を守る方法、見分け方、対処方法、返金方法などについて詳しく解説していきたいと思います。
AIなりすまし詐欺の手口
詐欺師はAI技術を使って、テレビ電話、ビデオ通話アプリ、動画で他人になりすまします。
AI技術(ディープフェイク)で加工を行うと、顔、体型、音声を、自分とは全く違う別の人物になりすますことができ、男性が女性になりすますことも、女性が男性になりすますこともできてしまうのです。
姿だけではなく、音声も他人になりすますことができ、男性の声が女性になったり、女性の声が男性になったりと、不可能なことは無いレベルでAIで他人になりすますことができてしまいます。
AIなりすまし詐欺を行う詐欺師はこの特性を悪用し、
①AIで他人になりすます
AIを使って他人になりすまします。
ターゲットの家族、友人、知人になりすますこともあれば、芸能人や有名人になりすますことも。この世には存在しない人間になりすますこともあります。
②ターゲットに接触
テレビ電話や動画、音声で他人になりすました詐欺師は、ターゲットに接触を行います。
③金銭を要求
AIで他人になりすました詐欺師は、理由をつけて金銭の振込などを要求します。
例えば、友人や家族になりすまして、「急なトラブルでお金が必要だから振り込んで欲しい」などと騙るケースや、異性になりすましてロマンス詐欺的にお金を振り込ませるケース、有名人になりすましてお金を騙し取ることも。
AIは誰にでもなりすますことができる
なぜ、AIなりすまし詐欺を行う詐欺師が、ターゲットの知人や他人になりすますことができるのか、その理由は、SNS・動画投稿サイト・ネット上に存在する写真・動画・音声は全てAIなりすまし詐欺に悪用することができてしまうからです。
詐欺師は、ネット上に存在する人物の画像や動画から、顔と音声を抜き取り、そのデータと基にAIを使うことで、テレビ電話・ビデオ通話・動画・音声でその人物になりすますことができてしまうのです。
現代では、Facebook、Twitter、Instagram、Tiktokなど人気のSNSに、自分自身の写真や友人の顔写真・動画を投稿する人が多く、それを悪用するAIなりすまし詐欺師がいるのです。
上記のようなプライベートなSNS以外にも、ビジネスの場で、ズームやスカイプ、チャットワークなどの動画通話アプリでオンラインミーティングが行われる機会も増えていますが、このような環境を悪用して、取引先や上司になりすまし、ビジネス取引での送金指示を謳ってお金を送金させるAIなりすまし詐欺も実際に発生しています。
また、ネットで検索すれば顔写真や動画がすぐに出てくるような有名人も、AIなりすまし詐欺に悪用されるケースも。
友人や家族になりすまし
AIなりすまし詐欺の典型的な手口のひとつとして、ターゲットの友人・家族・知人になりすまし、テレビ電話・ビデオ通話アプリ・電話などでお金を要求します。
これまでにもオレオレ詐欺・振込詐欺などで、息子を名乗って高齢者に電話をかける手口は存在していましたが、AIなりすまし詐欺では息子の写真や動画などからテレビ電話で姿かたちまで息子になりすまして詐欺が行われることも想定されます。
実際に発生している事件では、友人・知人になりすましてお金を振り込ませているケースも多く、くれぐれも注意が必要な詐欺手口です。
取引先・上司・ビジネスマンになりすまし
ターゲットの取引先や上司になりすまし「取引のために本日中にお金の振込みが必要」などの嘘の話でお金を送金させる手口です。
ターゲットにされやすいのは、会社経営者や、会社や組織の経理・銀行管理を任されている人ですので要注意が必要です。
テレビ電話やビデオ通話アプリで、上司や取引先になりすました詐欺師から仕事上の入金の指示をされた場合には、AIなりすまし詐欺だと気づかずに詐欺被害に遭ってしまう可能性がありますので気をつけましょう。
警察・各種機関の職員になりすまし
これまでにも還付金詐欺や融資金詐欺などで、警察や金融庁職員・郵便局員・税務署職員になりすましてターゲットに電話をかける詐欺事件はありましたが、AIの技術が加わることにより、テレビ電話で姿かたちまで偽装して他人に扮して詐欺を行うのがAIなりすまし詐欺の特徴です。
AIの技術を考えれば、実在する警察官になりすますこともできてしまいますが、警察や各種機関の職員が見知らぬ番号からテレビ電話をかけるということは考えづらいので、このようなAIなりすまし詐欺の被害に遭わないように気をつけましょう。
魅力的な異性になりすまし
国際ロマンス詐欺・出会い系詐欺・マッチングアプリ詐欺の延長として、AIで魅力的な異性になりすました詐欺師からテレビ電話・ビデオ通話でお金を要求する手口です。
AIの合成技術・音声技術で、存在しない美男美女に扮した詐欺師が甘い言葉で誘惑し、理由をつけてお金の振込や送金の話を持ちかけます。
有名人になりすまし
政治家やタレントなど有名人になりすました詐欺師がテレビ電話で嘘の話をもちかけて金銭を要求するパターンもあります。
実際にアメリカではトランプ大統領になりすましたディープフェイク画像がネット上に流出したりなど、AIなりすまし詐欺事件以外でも、有名人になりすました愉快犯の犯行が増えています。
上記に挙げた手口以外にも、AIなりすまし詐欺で、誰かになりすましてお金を騙し取る詐欺被害が今後急増する恐れがありますので、詐欺に騙されないように気をつけましょう。
特に、SNSや出会い系サイト・マッチングアプリや、見知らぬ連絡先からのテレビ電話・ビデオ通話で、実在する本当の人物だと信じてしまうと、AIなりすまし詐欺の被害に遭いやすくなってしまいますので、くれぐれもご用心ください。
AIなりすまし詐欺の逮捕事件
どんな人物にもなりすますことができてしまうAIなりすまし詐欺ですが、実際の逮捕事件を取り上げてご紹介します。AIなりすまし詐欺から身を守るためにご参考になれば幸いです。
テレビ電話で友人になりすましたAI詐欺事件
中国で実際に発生したAIなりすまし詐欺事件ですが、被害者である会社役員の男性に対して、AIで友人になりすました人物がテレビ電話(ビデオ電話)で「入札のための保証金が必要だ」という嘘の話で、たった10分の通話だけで日本円でおよそ8500万円を振り込んでしまった事件です。
その他にも、東部・安徽省で起こったAIなりすまし事件でも、被害者男性の友人を騙る詐欺師からテレビ電話があり、日本円で4800万円を騙し取られてしまった事件で、AIなりすまし詐欺を行った3人が逮捕されています。
中国では他にも、実在する被害者の友人・知人になりすましたAIなりすまし事件による高額被害が多発しています。
AIで他人の音声を生成した詐欺事件
アメリカでは、AIで他人の音声になりすまし、生成した音声を用いて電話で詐欺を行う事件が多発しています。
AIで他人の音声になりすますことを専門用語はボイスクローニングとも言います。
このような事件では、SNSや動画投稿サイトにアップロードされていた動画や音声が、AIで他人になりすますための音声作成に悪用されているということです。
上司・取引先になりすましたAI詐欺事件
イギリスを拠点とするエネルギー企業の経営者が被害者となったAIなりすまし事件ですが、ドイツの親会社のCEOからの電話で、2600万円を送金するように依頼されたのですが、実は詐欺師からの電話で、AIでドイツのCEOになりすました詐欺師が嘘の話でお金を騙し取る詐欺を行った事件です。
AIで取引先や上司になりすました詐欺師から、仕事の命令として送金指示などが行われるという悪質な詐欺事件です。
このように、海外でのAIなりすまし事件が多く、逮捕事例も多くある理由は、日本よりも海外のほうがAI技術が広まっており、市販のAIソフトが普及しているなどの理由が挙げれます。
しかし、日本でもAI技術はこれからまだまだ広まっていきますので、日本国内におけるAIなりすまし詐欺事件が今後増えることが想定されます。
AIなりすまし詐欺の見分け方
AIなりすまし詐欺から身を守るためには、テレビ電話・動画・音声などが本物であるのか?AIでなりすました詐欺なのか?を正しく見分けることが必要になります。
ここではAIなりすまし詐欺の見分け方を掲載していきますのでご参考になれば幸いです。
【見分け方1】不自然な日本語
AIなりすまし詐欺を行う詐欺師は、日本人詐欺師だけではなく海外在住の外国人詐欺師の場合もあります。
そのような場合、日本語に不慣れな外国人詐欺師が作った音声で、喋り方が不自然な日本語で生成されたAI音声データである場合があり、違和感を感じる日本語、不自然な日本語の音声データはAIによるなりすまし詐欺の可能性があります。
【見分け方2】一方的な金銭の要求
テレビ電話で友人や知人、有名人や他人になりすますAIなりすまし詐欺では、オレオレ詐欺や振込詐欺と同様に、詐欺師側が一方的な話をしてきます。
「◯◯な理由でお金が必要だから振り込んで欲しい」といった話が一方的にされますので、テレビ電話で一方的な会話でお金を要求された場合はAIなりすまし詐欺の可能性があります。
【見分け方3】知らない番号からの着信
テレビ電話やFaceTime、スカイプ、ズームなどのビデオ通話アプリで知らない番号やアカウントから着信があった場合にはAIなりすまし詐欺の可能性があります。
本当にあなたの友人・家族・知人からのテレビ電話であれば、以前から知っている電話番号やアカウントからの着信になりますので、見知らぬアカウントからのテレビ電話にはくれぐれもご注意ください。
【見分け方4】喋り方
あなたの家族・友人・知人であれば、あなたが知っている相手の喋り方や特徴があるはずです。
AIなりすまし詐欺による電話・ビデオ通話で、あなたが知っているいつもの喋り方と違う違和感を感じる会話がある場合には、詐欺師が知人に扮したAIなりすまし詐欺の可能性があります。
【見分け方5】かけ直して本人確認を行う
知人からの電話・ビデオ通話で「AIなりすまし詐欺かもしれない?」と不安があった場合には、相手方からかかってきた通話を一度切って、あなたが知っている本人の連絡先に電話をかけ直し、本当に本人からの電話だったのか確認を取ることが大切です。
多くの場合、他人になりすましたAIなりすまし詐欺では、見知らぬ番号や連絡先に登録されていない知らないアカウントからの通話やコンタクトがありますので、いつもと違う番号・アカウントからあなたの知人を名乗る連絡があった場合には、AIなりすまし詐欺の可能性がありますのでご注意ください。
AIなりすまし詐欺の返金方法
AIなりすまし詐欺の被害に遭ってしまった場合の返金方法・対処方法について説明して参ります。
返金方法は支払方法によって異なりますので、支払方法ごとにそれぞれの対処方法を掲載します。
国内の銀行口座に振込
AIなりすまし詐欺を行う詐欺師が指定した国内の銀行口座にお金を振り込んでしまった場合の対処方法を説明します。
振込を行った直後であれば、まずは振込を行った自分が使っている銀行に詐欺被害にあって振込をしてしまったことを相談し、振込手続きの組戻しができないか確認してみるのが良いでしょう。
そして、返金に関して最も返金成功が望めるのは弁護士です。
しかし、詐欺師が指定した銀行口座が詐欺師自身の口座ではなく、違法売買された他人名義の口座だったりする場合もあり、AIなりすまし詐欺で返金が成功できるかどうかは案件によって異なると考えるのが良いでしょう。
消費者センター・国民生活相談センター・警察など各所に被害の相談を行うのも良いと思われますが、直接的に詐欺被害の返金を行ってくれるわけではありませんので、返金を最優先する場合には弁護士に相談するのが好ましいと言えます。
クレジットカードで支払い
クレジットカードで支払いを行ってしまった場合には、まず自身がお使いのクレジットカード会社に電話連絡を行い、AIなりすまし詐欺に騙されてクレジット決済をしてしまったという旨をクレジット会社のサポートセンターに相談するのが良いでしょう。
その時点で、クレジット決済を取り消してもらうことができれば、被害に遭わずに済みますが、できなかった場合にはやはり弁護士に相談を行い、代理人として弁護士からクレジット会社に事情を説明してもらい、クレジット決済の取り消しを求めるのが良いでしょう。
仮想通貨で送金
最も返金が困難になるのが仮想通貨で詐欺師の指定する仮想通貨ウォレットに送金してしまった場合です。
仮想通貨の送金は、送金履歴がブロックチェーンで一般に開示されていますので、誰でも送金履歴を追うことはできますが、送金先のウォレットの持ち主やプライバシーな情報を取得するのが非常に難しくなります。
→[返金が困難な事例]もご覧ください。
特に、海外の匿名性が高い仮想通貨ウォレットの場合は、弁護士に依頼をしても返金請求を行うことが不可能だと考えたほうがよいでしょう。
中には悪質な探偵事務所や、返金センターを名乗る業者が、「仮想通貨詐欺の返金ができる」「着手金・相談料が有料」という形式で、返金が不可能な仮想通貨送金被害にも拘わらず、相談料や着手金だけを搾取するという、詐欺被害者からさらに手数料を奪う悪質な着手金業者も存在しますので、くれぐれもお気をつけください。
私たち、詐欺返金請求ナビは相談料も全て完全無料で、ご相談者様から費用を頂くことは決してありませんので、ご安心してご利用頂ければ幸いです。
口コミ投稿フォーム | |
AIを悪用した詐欺についてこんな話題もニュースに取り上げられていましたね
ロンドン(CNN) 人工知能(AI)を駆使したクローン音声の生成により、銀行に預金する「数百万人」の顧客が詐欺の被害者になる可能性がある。オンラインに特化した英スターリング銀行がそう警告している。
同行が18日の報道向け発表で明らかにしたところによれば、詐欺師たちはAIを使うことで3秒間の音声を基にその人物の声を複製できる。音声記録はネットへの投稿などで入手するという。
詐欺師たちはその後、当該人物の友人や家族を特定し、AIでクローン生成した音声で金を要求する偽の電話をかける。
スターリング銀行は、この種の詐欺に「数百万人が引っかかる」可能性があると述べた。
数百人単位でなら、既に影響は出ている。同行が調査会社と共に先月実施した調査によれば、成人3000人超のうち、過去1年の間にAIでクローン生成した音声の標的にされたことがあると回答したのは4分の1以上に上った。
回答者の46%については、そのような詐欺の存在を認識していないことも明らかになった。友人や家族から電話がかかってきた場合、不審に思いながらも要求された金額を送るだろうと答えたのは8%だった。
スターリング銀行の最高情報セキュリティー責任者を務めるリサ・グレアム氏は、「人々は日常的に自分たちの音声を記録したコンテンツをネットへ投稿しているが、それで詐欺師に狙われやすくなるなどとは思いもよらない」と指摘した。
同行は人々に対し、親しい人たちの間で「安全フレーズ」を共有しておくことを推奨。簡単で覚えやすい合い言葉を用意し、電話をかけている自分が本物だと証明するのに使うよう呼び掛けている。
AIがますます巧妙に人の声をコピーできるようになる中、そうした機能が他人の銀行口座へのアクセスや誤情報の拡散などに悪用されるのではないかとの懸念も高まっている。
生成AIツールの「ChatGPT」を開発したオープンAIは、自社の音声模倣ツール「ボイス・エンジン」を発表したが、生成した音声の悪用が懸念されるとして現段階での一般公開には踏み切っていない。
これからの時代、AIを悪用した詐欺に気をつけていきたいですね。