企業に迫る“ディープフェイク”の脅威 ~攻撃の本質を知って適切な予防策を~ | |
---|---|
作成日時 22/05/26 (15:10) | View 3542 |
企業トップを欺いた“振り込め詐欺”
2019年の春、英国のエネルギー関連企業の社長は、ドイツにある親会社のCEO(最高経営責任者)から電話連絡を受けます。
“ハンガリーの取引先に22万ユーロ(約2,600万円)を送金せよ。緊急案件に付き1時間以内に”
社長は命ぜられた通りに送金しましたが、その後、親会社から必要な資金をイギリスの会社に払い戻したとの連絡が入り、2度目の送金を要求してきました。しかし自社の口座に入金はなく、発信元がドイツではなくオーストリアだったため、さすがに今度は送金を思い止まります。
表面的には国内でも多発している“振り込め詐欺”に過ぎません。
しかし、事件の詳細が明らかになるにつれて、今で言う“ディープフェイク”の手法が、セキュリティ関係者にインパクトを与えることになりました。
声の主はドイツ訛りのAI?
攻撃者は英国の企業を1度は欺きましたが、その手口はAIを使った音声合成だった可能性が高いとされています。当時、「Wall Street Journal」が伝えたところによると、電話を受けた社長は、最初は唐突な指示に違和感を懐きましたが、ドイツ訛りのあるCEOの口調からは、偽物と疑う余地はまったくなかったようです。
公の場に出る機会が多い企業トップの声の採取は難しくありません。音声を偽装する方法はいくつかあって、データから必要な音素を切り出してメッセージを合成するやり方が使われてきましたが、手間がかかる割には不自然さが残ります。英国の事件では、手口の詳細までは明かされませんでしたが、AIによる音声合成、ディープフェイクだったことは間違いないでしょう。
AIによる音声合成を使った詐欺行為(出典:サンケイbiz)
事件の後、各国の調査機関とセキュリティ企業は、2020年代の情報セキュリティにおける脅威として、ディープフェイクの拡散に警鐘を鳴らしましたが、昨今の不安定な世界情勢もあって懸念は的中し、企業社会も対応を迫られる状況になりつつあります。それでは、ディープフェイクの実態をもう少し詳しく見た上で、企業に必要な備えについて考えてみましょう。
改めて知るディープフェイクの実力
ディープフェイクは、一般的には“AI(人工知能)の学習方法の一つであるディープラーニング(深層学習)を使って合成された音声や映像”とされています。偽装の意味もあるfakeという単語から、マイナスイメージも強いのですが、この技術自体は詐欺のような行為を目的に作られたものではありません。
中国の大手IT企業 テンセントでは、以下のような応用例を挙げ、すでにいくつかの分野は開発に着手したとしています。
・映画制作でアクションシーンを演じたスタントマンの顔を俳優の顔に置き換える
・ゲームのキャラクタにプレーヤーの顔を当てて臨場感を出す
・音声と映像を活用したインタラクティブなeコマース空間を創る
・仮想空間のメタバースで、アバター(分身)によりリアルな表情と音声を注入する
・ケガや病気で発声に支障が出ている人をサポートする
こうした用途が見えてきたのは、特にここ2~3年のディープフェイクの精度の向上と、制作に使うツールの普及です。スタジオ設備や音声・画像処理の専門知識がなくとも、ハイレベルの合成コンテンツが生成できるようになったのです。
精度を体感できる例を思い出してみましょう。有名なところでは、映画「ターミネーター2」の主人公を演じたアーノルド・シュワルツェネッガーの顔を、シルベスター・スタローンの顔と入れ替えた作品がありました。もう一つは、メタ(旧Facebook)のマーク・ザッカーバーグCEO。“何十億人ものユーザーから搾取した個人情報をコントロールできると……”などと、本人が言うはずがない内容のスピーチ映像をごらんになった方も多いと思います。
「ターミネーター2」で顔を入れ替えたディープフェイク (YouTubeで公開)
こうしたディープフェイクの内容と制作の狙いはひとまず置くとして、これらはSNSで拡散され、多くの人にディープフェイクの今の実力を知らしめることになりました。
コア技術は“敵対的生成ネットワーク”
ディープフェイクのコンテンツを作る仕組みを見ておきましょう。
手法はいくつかありますが、よく知られているのは「GAN(Generative Adversarial Networks)」、直訳すると“敵対的生成ネットワーク”です。学習を行う2つのニューラルネットワーク(脳の仕組みの一部を真似て構成した数式モデル)が競争して、画像や音声の精度を高めていくという技術です。
具体的には、generator(生成)と言うネットワークがランダムなデータから音声・画像を生成し、もう一方のネットワークであるdiscriminator(識別)が、generatorが作った作品を本物と比較してでき具合を判定します。“生成ネットワーク”は判定結果からも学習し、“識別ネットワーク”も自身の性能を高めるための学習を続ける。この敵対的な生成を何百回、何千回と繰り返すうちに双方のネットワークの性能は向上し、作品の完成度は上がっていくという仕組みです。
GANに代表される手法でディープフェイクを作るためのソフトウェアは、PCやスマートフォン向けも提供されていて、無料のツールも容易に入手できるようになりました。
こうして高精度のディープフェイクが制作できる環境が整ってきた中で、懸念されるのは悪用の蔓延です。
企業社会にもリスクは降りかかる
政治的プロパガンダや著名人をおとしめるディープフェイクが問題視されているのは周知の通りですが、ビジネスの世界でもリスクは金銭をだまし取る詐欺だけではありません。例えば、企業のトップが“我が社の製品に欠陥が見つかり……”といった発言をする映像を流し、イメージダウンと株価の低下を狙うような犯罪は容易に想像できます。
IT企業や業界団体は、悪意のディープフェイクを警戒すべきとのメッセージを発信し行動も起こしています。例えば、メタは偽物を検知するプログラムの性能を競う「Deepfake Detection Challenge」というコンペティションを実施しました。マイクロソフトでは、「虚偽情報に向けた新たな取組みについて」という声明を出し、他のSNSの運営企業やIT大手も何らかの取組みは行っています。
画像から人為的に加工された要素を検出するプロセスの一部
出典:マイクロソフトのWebサイト 「虚偽情報に向けた新たな取組みについて」
ただ、ここはディープフェイクに限りませんが、攻撃の先鋭化とその対策はいたちごっこの側面があります。巧妙化する手口の実態は追いきれず、個別にメール送信されるようなコンテンツを封じることはできないでしょう。
ディープフェイクの本質はソーシャルエンジニアリング
現在の企業は、自社のWebサイトがあり、SNSでも情報を発信し、新製品・サービスの発表時は、新聞やテレビなどのメディアに露出する機会もあるでしょう。攻撃者にとっては、ディープフェイクの素材には困らないはずです。材料があり制作ツールも容易に手に入る状況ですから、企業を狙うさまざまな詐欺への参入障壁は大幅に下がったと見て、自衛策を講じていくしかありません。
対策の前提として、まずこの技術の本質を認識することです。ディープフェイクの話では、AIを使った新しい攻撃である点がクローズアップされることが多いのですが、実態は人間の心理や行動の隙を突く「ソーシャルエンジニアリング」です。コンピュータシステムの弱点よりも「人」。完全には排除できない人間の不注意やミスを前提に、それに対処する体制を作るという基本に立ち返ることが大切なのです。
行動の第一歩は知識の会得です。例えば、英国のエネルギー会社のケースは、ビジネスメール詐欺の音声版と言える手口ですから、ディープフェイクを悪用した犯罪の告知に加えて、メールを使った攻撃に対するトレーニングが有効です。表面的な部分に踊らされず、 “金銭に関する指示は確認する” “少しでも怪しいメールは開かない”などの基本を忘れてはなりません。
自社情報をモニタリングして予防を
自社の情報の拡散にも注意を払う必要があります。実践している企業も多いのですが、一般のWebメディアやSNS、場合によっては“ダークWeb”のような闇サイトも含め、自社が関連する情報の流通をモニタリングする体制の整備です。そして偽情報を検知したら、セキュリティ・インシデントと位置づけ、対処する方法を策定しておきます。
もう1つは、情報発信に対するガードの強化。例えば、社外に連絡メールを送信する際は上長がチェックする、送金に関する内容は専任の担当者を経由するといったルールと体制も有効です。あるいは“信用はゼロ”、企業内のすべての人員、情報機器に対する認証を厳格にし、他の機器やデータにアクセスするときは毎回認証を求める“ゼロトラスト”のような考え方も予防策の一つになるでしょう。
“リテラシー(知識)とトレーニング(訓練)、そしてアウェアネス(意識向上)”
NIST(米国標準技術研究所)が公開した文書「ITセキュリティの意識向上およびトレーニングプログラムの構築(NIST SP800-50)」に記載された内容です。ディープフェイクを悪用する攻撃が先鋭化していく中でも、ここに示された基本は有効ですから、この3つは常に意識していたいものです。