生成AIで有名人の顔や声を偽造 引っかかると詐欺被害にもつながるニセ・誤情報に要注意
生成AIの登場により、ニセの情報や誤った情報が拡散されるリスクが高まっていることを受け、6月17日、名古屋市内で対策などを学ぶセミナーが開かれました。セミナーは電波を監理・監督する東海総合通信局が開き、約150人が参加しました。
講師:
「5分で作りました。『こんにちは。お元気ですか』。無料のアプリで作れてしまいました」
講師は、生成AIの登場で誰でも、容易に、短時間でニセの情報を作ることができるようになっていると警鐘を鳴らしました。
総務省が行った実態調査によりますと、全国の男女2820人に過去に拡散されたニセの情報を見せたところ、約半数にあたる47.7%の人が「真実」だと誤認しました。講師は「必ず複数の情報源を確認する」などルールをつくることが大事だと呼びかけました。
何が本当で何が間違っているか、非常に判断しずらい時代と専門家が指摘
生成AIを使ったニセの情報について専門家は…
国際大学 山口真一准教授:
「私達はこれから、何が本当で何が間違ってるかっていうことが非常に判断しづらいというような時代を生きることになるんだということを、まず知っておく必要があるかなというふうに思います」
警鐘を鳴らすのは、ネット上のニセ・誤情報に詳しい国際大学の山口真一准教授です。
国際大学 山口真一准教授:
「(2022年9月の)静岡県の水害のときに、3枚の写真が(SNSの投稿に)添付されていたわけですが、それが実際には無料で作られたAI生成の画像だったわけですよね。簡単に社会全体が混乱するような、精度の高い、要するに多くの人が騙されてしまうようなコンテンツというものを、AIの技術的な知識がない人でも作れてしまうようになっている」
特殊詐欺の犯罪グループもAI技術に目をつけている
精度の高いニセの画像や動画が、犯罪に使われるケースも増えているといいます。
国際大学 山口真一准教授:
「特殊詐欺グループが、このAIという技術に目をつけないわけがないんで、SNSの広告とか、あるいは有名人のふりをして(ニセ画像や動画を)投稿。そういったものが窓口になっていて、今度はメッセージアプリに誘導されたりする。
そこでもう有名人のフリしていたりするんですよね。例えばビデオチャットしてみたらですね、本当に有名な人(の顔や声で投資について)喋ってる。これ本物なんだっていうふうに思って、投資に行ってしまうこういったようなケースもあります。既に結構な被害が出てるのかなというふうに思います。闇バイト(の勧誘)とか(仕掛けは)大体同じです」













