AIは人間による攻撃の夢を見るか?

先進的サイバー・セキュリティ・テクノロジーのプロバイダであるF-Secure (本社: フィンランド・ヘルシンキ、CEO: Samu Konttinen、日本法人: 東京都港区、以下、エフセキュア) は、同社が参画しているSHERPA コンソーシアムがおこなったAIに関するリサーチの結果を発表しました。それによると、悪意を持った攻撃者が既にAIに対して攻撃を仕掛けていることが判明しています。

人工知能 (AI) は、自動運転、SNS、サイバーセキュリティなど、人々の暮らしのほぼすべてのシーンにおける活用が急速に進んでいます。しかし、SHERPAコンソーシアム (F-Secureが参画した、6ヶ国11団体によって構成されEUの資金サポートを受ける、倫理および人権に対するAIの影響を研究するプロジェクト) が発表した新しいレポートでは、人間である攻撃者は機械学習技術を利用できますが、機械学習を使用した新しい攻撃手法を作り出すことより、現存するAIシステムを操作して悪用することに注力している、ということが述べられています。

本リサーチのフォーカスは、悪意を持った攻撃者がAI、機械学習、スマート情報システムをどのように悪用できるか、という点にあります。研究者たちは、洗練された偽情報の作成やソーシャルエンジニアリングキャンペーンなど、今日の攻撃者の手が届く範囲にある、AIの悪質な用途を特定しています。

そしてこのリサーチでは、悪意を持った攻撃者がサイバー攻撃を仕掛けるために既にAIを使用しているという決定的な証拠は見つかりませんでしたが、攻撃者はすでにサーチエンジン、ソーシャルメディア運営企業、レコメンドサイトなどで使用される既存のAIシステムを攻撃しています。

映画、ドラマ、小説などではAIが人間に対して反乱を起こし攻撃を仕掛けてくるという設定が多く用いられていますが、現実には人間がAIシステムを定期的に攻撃している、ということなのです。エフセキュアの人工知能研究センターのシニア・リサーチャーであるAndy Patel (アンディ・パテル) は、こうした現実は多くの人にとって驚きに値するものだろうと考えています。 「これは誤りなのですが、一部の人々はAIと人間の知能を同一視しています。殺人ロボットや制御不能なコンピュータと関連付けてAIを脅威に感じるのはそのためです。しかし、実際には人間によるAIへの攻撃は多く発生しています。レコメンドシステムのように、人々が毎日使用するAIシステムを害するように設計されたシビル攻撃 (Sybil Attack) は、一般的な出来事です。こうした行為をサポートするサービスを販売している企業もあります。皮肉なことですが、実は人間がAIを恐れるべきなのではなく、AIが人間を恐れなければいけないようです。」

シビル攻撃では、AIが決定を下すために使用するデータを操作するために、単一のエンティティが複数の偽アカウントを作成し制御するようになります。サーチエンジンのランキングやレコメンドシステムを操作して、特定のコンテンツの順位を上昇/下降させることなどがシビル攻撃の例です。これらの攻撃は、標的型攻撃のシナリオの中で個人に対するソーシャルエンジニアリングの一部としても使用されます。 「こうした攻撃は、オンラインサービスプロバイダにとっては検出が非常に困難であり、この行動は人々が理解しているよりもはるかに広範に及んでいます。」と、Twitter上の不審な活動について調査を行ったPatelは述べています。

しかし、将来的には攻撃者にとって最も攻撃の価値のあるAIの用途は、フェイクコンテンツを作成することでしょう。リサーチによると、AIは非常に現実的な文章、音声、およびビジュアルコンテンツを作成できるレベルまで進化しています。 AIモデルの中には、攻撃者による悪用を防ぐために、一般に公開されていないものもあります。

「現時点では、高い説得力を持つようなフェイクコンテンツを作成する方が、そうしたフェイクコンテンツを特定するよりも簡単なのです。 また、AIは音声/動画/画像の作成において人間のサポートをしていますが、AIのそうした能力がフェイクコンテンツのさらなる洗練化につながるのです。そして、こうしたフェイクコンテンツは様々なアプリケーションで使用されるため、より大きな問題を引き起こしてしまうでしょう。」と、Patelは語っています。

本リサーチで取り上げたその他の調査結果とトピックは次のとおりです。

  • 攻撃者は、攻撃手法の普及に合わせて、AIシステムを危険にさらす方法を学び続ける。
  • 攻撃者がAIの出力を操作する方法がいくつも存在するため、このような攻撃を検出して防御することは困難。
  • 攻撃的/防御的な目的でより優れたAIを開発しようと競争は、「AI軍拡競争」を引き起こす可能性がある。
  • 攻撃からAIシステムを保護すると、倫理的な問題が発生する可能性がある (たとえば、アクティビティの監視を強化すると、ユーザのプライバシーが侵害される可能性がある、など)。
  • 高いスキルや豊富な経験を持つ攻撃者によって開発されたAIツール/モデルは増殖と普及を経て、最終的にはスキルレベルの低い攻撃者にも使用されるようになるだろう。
SHERPAプロジェクトコーディネーターであるDe Montfort University LeicesterのBernd Stahl教授は、サイバーセキュリティ業界からの唯一のパートナーとしてのSHERPAに参画しているエフセキュアの役割は、悪意のある攻撃者がAIを使用して社会全体の信頼を低下させる手法について、SHERPAプロジェクトをサポートすることだと語っています。 「SHERPAプロジェクトの目的は、AIとビッグデータ分析の倫理的および人権への影響を理解し、これらに対処する方法を開発するサポートを行うことです。AIで人権、プライバシー、または倫理について意味のある会話をすることにおいて、サイバーセキュリティは必ず考慮しなければならない項目です。 エフセキュアは、コンソーシアムにとって重要な専門分野であるセキュリティ/脆弱性において、テクノロジーおよび知識の面でプロジェクトの中心的な部分となっています。」

SHERPAプロジェクトによる本リサーチの結果は以下でご覧いただけます(英語)。 https://newsfromthelab.files.wordpress.com/2019/07/d1.3-cyberthreats-and-countermeasures.pdf

また、AIやサイバーセキュリティに関するF-Secureのブログやリサーチラボのブログはこちらをご覧ください(英語)。 https://blog.f-secure.com/artificial-intelligence-cyber-security/

https://labsblog.f-secure.com/2019/07/08/security-issues-dangers-and-implications-of-smart-information-systems/

 

エフセキュアについて

エフセキュアほどサイバーセキュリティを熟知している企業は市場に存在しません。1988年の設立以来、エフセキュアは30年以上にわたりサイバーセキュリティの技術革新を牽引し、数千社の企業と数百万人のユーザーを守ってきました。エンドポイントの保護と脅威の検出・対応において他企業を圧倒する実績を持つエフセキュアは、巧妙なサイバー攻撃やデータ侵害からランサムウェアの感染の蔓延までを含む、あらゆる脅威から企業と個人ユーザーを保護します。エフセキュアの先進テクノロジーは、機械学習の力と世界的に有名なセキュリティラボのエキスパートの持つ専門知識を組み合わせた、『Live Security』と呼ばれる独特のアプローチに基づくものです。ヨーロッパにおいて、エフセキュアは他のどのセキュリティ関連企業よりも多くのサイバー犯罪捜査に携わっています。エフセキュア製品は全世界200社以上のブロードバンド/モバイル事業者と数千社にのぼるセールスパートナーを通じて販売されています。


エフセキュアは本社をフィンランド・ヘルシンキに、日本法人であるエフセキュア株式会社を東京都港区に置いています。また、NASDAQ ヘルシンキに上場しています。Twitter @FSECUREBLOG でも情報の配信をおこなっています。

f-secure.coom | twitter.com/fsecure | linkedin.com/f-secure

本件に関する報道関係者からのお問合せ先

秦 和哉 (Kazuya HATA)

PR Manager, Japan

+81 3 4578 7745
japan-pr@f-secure.com

プレス登録

F-Secureからのリリース配信をご希望の方は、こちらからご登録ください。

お客様の個人データは、当社の法人向けビジネス プライバシー ポリシーに従って処理されます。