AI技術の「ディープフェイク」は今や、子供の写真1枚から成長後の姿を画像化・映像化できるまで発展していることをご存知でしょうか?
2023年7月、ドイツ・ボンに本社を置く電気通信事業者のドイツテレコムは、親が子供の写真をインターネット上に掲載する危険性について提唱した広告動画を発表しました。この動画内では、全親の75%が子供のデータ(写真や動画)をSNSで共有しており、10人中8人は知らないフォロワーがいると発表しています。
Instagram、X(旧Twitter)、TikTokなどなど。SNSでは、個人が撮影した写真や動画は投稿者の意図しない見ず知らずの人にまでも、一瞬でシェア・拡散される時代です。
よい思い出として撮影した写真や動画から、子供が犯罪に巻き込まれるという悲しい事件を防ぐため、ぜひAI技術やインターネットの今を知ってください。
アプリやツールで「誰でも」フェイク動画が作れる時代
百聞は一件にしかず。まずは、ドイツテレコムの広告動画をぜひご覧ください(動画時間:約3分)。
全編英語ですが、翻訳(意訳有)した内容は以下のとおりです。
警告:このコンテンツには一部の視聴者にとって不快となる表現があるため、ご注意ください。
全親の75%が子供のデータ(写真や動画)をSNSで共有している。
10人中8人は知らないフォロワーがいる。
こちらは9歳のエラちゃんのご両親です。
ご両親は娘をよくソーシャルメディアに投稿します。
それが自分たちの将来にどのような影響を与えるかも知らずに。
そこで私たちは彼らにそれ(危険性)を伝えることにしました。
たった1枚の写真とAIを元に、大人のエラを作成しました。[0:31〜0:47] 1枚のエラちゃんの写真から、自動で生成されてゆく大人のエラちゃんの姿が映される。
大人のエラが両親に伝えなければならなかったのは、次のとおりです。
お母さん、お父さん、大人のエラです。デジタル化して、ほんの少しだけ歳をとったよ。
すごいでしょう?たった数枚の写真で、最近の技術では何ができるかわかる?
ソーシャルメディアでシェアするように誰でも投稿できて、悪用できてしまうの。
あなたたちにとって、これらの写真は単なる思い出に過ぎないことはわかっています。けれど、他人にとってはデータです。
そして、私にとってはもしかして恐ろしい未来の始まりかもしれない。このままアイデンティティを奪われてしまうかもしれない。
あるいは、私のクレジットスコア(金融だけでなく生活全般に影響を与える社会信用度)が破壊されたり、無実の罪で刑務所に入れられてしまう場合もあります。
お父さん、私の声がコピーされてあなたたちに詐欺をするかもしれません。
「お母さん、私トラブルに遭って困ってるの、お金を送って!」
お願いです。私はネットミームになって屈辱を味わいたくないです。
「自殺しろ、負け犬」
そして私は絶対にこれを望んでいません……[2:07〜2:08]モザイク処理されているが、ディープフェイクにより作成されたエラちゃんの児童ポルノ写真とみられるものが映る。
オンラインで共有するものは、私の残りの人生を追いかけるデジタル足跡になる。
私が伝えたいのは、あなたたちが私を愛してくれているのは知っています。
そして、私に危害を加えるつもりがないことも私は知っている。
だからお母さん、お父さん、どうか私のプライバシーを守ってください。
さらに恐ろしいことに、これらは遠い未来の話ではなく、すでに誰にでも起こり得ることなのです。
「ディープフェイク 作成」と検索するだけでも、いくつものアプリやツールがヒットします。
また、SNSを含むネット上にデータをアップする際、「フォロワーは全員知っている人だし、鍵垢(非公開アカウント)だから大丈夫」というわけではありません。
2021年には、アメリカ・ペンシルヴェニア州在住の母親が、娘が所属するチアリーディングの「ライバルをチームから追い出したい」という理由から、ディープフェイクでチームメイトのわいせつな画像や動画を作成し、コーチに送りつけたという事件がありました。
参考:BBC NEWS「娘のライバル蹴落とすため……『ディープフェイク』でわいせつ動画作成の母親逮捕」
このように、いつどこで誰からの悪意に晒されるかはわかりません。
そして、いくら子供の名前は明かしていないとしても、顔がわかってしまえば、卒業アルバムなどから名前が流出することもありますし、日常の投稿内容(「豪雨が来た」などの天候情報)や写真から居住地域を特定することも、とてもたやすいのです。
ディープフェイクを見破る技術、開発とすり抜けのイタチごっこ
AIが生成したディープフェイク動画には、以前はまばたきの際に不自然さがあり、肉眼でも違和感に気づくことができました。
しかし、それらの欠点はあっという間に解消され、今や肉眼で見抜くことはほぼ不可能な動画が出回っています。
また、生成した動画の投稿先として、ニュースやポルノに関するものがアンダーグラウンドなサイトに投稿されていた傾向が以前はありましたが、今やTikTok、Instagram、YouTubeといったより身近なサービスに投稿されるケースが増えています。
偽情報に対抗するために、情報の真偽を検証する活動を「ファクトチェック」といいます。ファクトチェックは、ディープフェイクに限らずフェイクニュース全般の真偽検証を指しますが、ディープフェイクに関するファクトチェック技術は日本でも開発が進められています。
国立情報学研究所の情報セキュリティチームは、動画を専用サイトに投稿すれば、AIが自動的に虚偽かどうかの判断を行うプログラム「STNTHETIQ VISION(シンセティックビジョン)」を2023年に発表しました。
SYNTHETIQ VISIONの利用には、APIサーバーや認証用APIトークンの利用が必要なため、誰でもすぐに利用できる環境ではありませんが、人の手による分析を一切必要とせず、「圧縮やダウンコンバージョンなどのメディア処理で画質が低下した映像でも一定の信頼度による判定を行うことができる」そうです。
たったの2年ほど前までは肉眼でも見抜けた技術が、今では判別不可能になっているように、技術の進歩はイタチごっこ状態といえます。しかし、このような手軽な検知技術が誰でも利用できるようになり、また撮影したデータ自体に改変ロックがかけられるようになる未来が望ましいですね。
ちなみに、国立情報学研究所の情報セキュリティチームでは、SYNTHETIQ VISIONの社会実装にむけてパートナー企業を募集しているようです。
参考:国立情報学研究所 シンセティックメディア国際研究センター「SYNTHETIQ VISION: Synthetic video detector(フェイク顔映像を自動判定するプログラム)」
四谷大塚塾講師の盗撮事件から考える「子供の顔写真」の危険性
2023年8月12日、大手中学受験塾の四谷大塚の男性講師が児童の盗撮動画などをSNSに投稿していたことがニュースとなりました。
塾講師は生徒の顔写真や盗撮した動画を、小児性愛者が集うサイトやSNSに投稿していました。小児性愛者が集うコミュニティでは、生徒たちの顔写真を個人情報と共に羅列し、人気投票を行い性犯罪を助長するようなコメントを煽るといった投稿が行われており、それに対しコミュニティ内では、卑猥な言葉とともに「連れ去りや性犯罪を行いたい」といった内容が書き込まれていました。
たとえディープフェイク技術がなくとも、子供たちの写真や動画をSNSなどにアップロードすることが、危険と隣り合わせであるという明確な事件です。
塾講師は懲戒免職になったものの、犯罪者として裁かれたわけではなりません。もちろん小児性愛者が集うコミュニティのメンバーがどこの誰なのかもわかりません。
子供自身が「知らない人にはついていかない」だけでは身を守ることが難しくなってきた近年、親にとっても「子供の成長過程を他人に公開すること」にはいっそう慎重になるべきかもしれません。
参考:集英社オンライン「〈四谷大塚講師・盗撮〉『私の信頼を得られたら招待してあげます』20代の盗撮講師はネットでロリコン仲間を集め、女児の動画や個人情報を流出。女児の人気投票も開催」
まとめ
写真や動画、音声データによって犯罪に巻き込まれるリスクがあるのは、もちろん子供だけではありません。データの真偽検証やトレーサビリティ(商品や情報の生産・発生源から消費までの流通の追跡)の確保がまだ叶わない現在でも、まずは技術の進歩や社会の変化を知ること、頭の片隅にでも置いておくことで、犯罪を未然に防いただり、すぐに気づくことができるはずです。
外見や音声の合成技術といったディープフェイクについての基本的な知識については、以下の過去記事もあわせてご覧ください。