はじめに

偽・誤情報(インフォメーション操作)は、特定の政治的・経済的な目的を達成するために意図的に誤った情報を拡散する行為であり、国家や非国家アクターが公正な社会を揺さぶる主要な武器として利用している。前回までに定義や実態を整理した。今回は、攻撃者がどのような戦術・技術を用いて偽・誤情報キャンペーンを実行するのか、そして近年急速に普及した生成AIがこれらの手法をどのように強化しているかを解説する。

攻撃プロセスの枠組み:RICHDATA

情報操作は単純な投稿の連鎖ではなく、調査・準備・拡散まで含む多段階のプロセスで構成される。米ジョージタウン大学のセンター・フォー・セキュリティ・アンド・エマージング・テクノロジー(CSET)は、典型的な偽情報キャンペーンをRICHDATA(Reconnaissance, Infrastructure, Content‑creation/Hijacking, Deployment, Amplification, Troll patrol, Actualisation)という七つの段階に整理している。これはサイバー攻撃における「キルチェーン」に似た概念で、各段階で異なる技術や人員が投入される。

R – 偵察(Reconnaissance)

攻撃者はまず対象社会の情報環境を詳しく調べる。CSETの報告によれば、ロシアのインターネット調査機関(IRA)は2016年米大統領選への介入に際し、米国内のニュースやSNSを監視し、言語や文化に熟達した分析チームを編成した。ターゲット層の歴史的な不満や社会的な分断を調査し、どの文脈にどの物語が響くかを把握した上で、微細なメッセージングを設計する。これは確立された事実である。

I – インフラ構築(Infrastructure)

次に、攻撃者は偽のオンライン人格(ソックパペット)やボットネット、偽ニュースサイトなどの“インフラ”を準備する。報告書は、攻撃者が自作の偽アカウントを作るほか、ダークウェブで既存のアカウントを購入したり、影響力を売る業者に外注したりする例を紹介している。本格的な操作では、プロフィール写真や経歴まで作り込んで信頼性を高め、AI生成画像で身元を特定されにくくする。2016年のIRAキャンペーンでは300個程度の精巧な偽アカウントが全英語投稿の85%を拡散し、ブラック・ライヴス・マターや共和党支持者を装って現地の草の根団体に浸透した。これらは専門家の調査による実例であり、攻撃の高度化を示す。

CH – コンテンツ生成・ハイジャック(Content Creation and Hijacking)

偽情報キャンペーンの「燃料」は大量のコンテンツである。ロシアの操作では数百人規模の“コンテンツ工場”が毎週数千件の投稿を作成し、特定のキーワードを繰り返し含めることでアルゴリズム上の露出を確保した。攻撃者は感情に訴える内容を作り、怒り・恐怖・肯定感といった心理を引き出すことで拡散を狙う。また、既存の投稿や写真をスクリーンショット化して意図を歪める「ハイジャック」や、短文メッセージやミームを駆使した視覚的な訴求が多用される。他人の写真を切り取り偽広告を生成した“#DraftOurDaughters”のように、結婚写真に徴兵キャンペーンの文言を貼り付けるケースも報告されている。

D – デプロイメント(Deployment)

インフラとコンテンツが整ったら、攻撃者は選定したチャネルに投稿を投入する。CSETによれば、攻撃者はまず監視の緩い場外サイトで偽情報記事を発表し、そのリンクを本流のSNSで繰り返し引用する。偽ニュースサイトや“代理メディア”と呼ばれる代理ニュースサイトがこの目的で使われ、イランやロシアは複数のプロキシサイトを運用して国益に沿う偽ニュースを発信している。また、米国CISA/FBI/ODNI合同ガイドは、外国の情報操作者が信頼できる報道機関のような外観を持つ“代理メディア”を設立し、AI生成のニュースキャスターまで導入していると指摘している。

A – 増幅(Amplification)

攻撃者が作成したコンテンツは、ボットネットやアルゴリズムの特性を利用して一気に増幅される。EU理事会は、ボットやトロールのネットワークを使って投稿の露出や信頼性を人工的に高めることがFIMI(外国情報操作と干渉)の主要な戦術の一つだと列挙している。具体例として、中国がCOVID‑19の対応を自国有利に見せるため「Spamouflage Dragon」と呼ばれるネットワークを運用し、2万3750件のコアアカウントと15万の補助アカウントでキャンペーンを展開した。ボットは一斉にハッシュタグを乗っ取り、トレンド入りを狙ってコメント欄を荒らす“アストロターフィング”を行うが、これはYALIネットワークが「極端な意見を多数派に見せかける戦術」として警告するものであるy。さらに、攻撃者はTwitterやFacebookのAPIを利用して複数アカウントを自動運用し、同じ内容を異なる文言で拡散する。

T – トロールパトロール(Troll Patrol)とA – 実現(Actualisation)

拡散後も攻撃者は「トロール部隊」を用いて議論を誘導し、反論を封じる。コメント欄で対立意見を罵倒してユーザーを沈黙させるアンチコミュニケーション戦略は、米国国務省が示す代表的戦術である。このような攻撃は心理的攻撃に近く、被害者に発言を躊躇させる効果がある。また、動員段階では標的が攻撃者の物語を信じ、現実世界で抗議や暴動に参加するよう仕向けることが最終的な目標となる。ロシアのハイブリッド戦では、現地の“スーパースプレッダー”と呼ばれる影響力のある人物を操り、デモを組織した例が報告されている。

外部の視点:EUと米国が示す攻撃技術

EU理事会は、外国情報操作の典型的な手法として以下を挙げている。これらは確立された事実である。

  • 極端な観点の煽動による分断の深化
    • 社会の断層を利用し、両極の立場に偏ったメッセージを拡散して民主的な議論を困難にする。
  • 正規コンテンツの改ざん
    • 画像・動画を編集して意味を変えるなど、既存の情報を加工し誤用する。
  • 偽のコンテンツの創造
    • 正規のニュースサイトに似せたウェブサイトやAI生成の音声・映像(ディープフェイク)を作り出し、真実と偽りを混ぜて受け手を欺く。
  • 偽の語りやなりすまし
    • 外交官や政府機関のアカウントに見せかけて発信し、虚偽の語りを広める。
  • 信頼できる情報源の信用失墜
    • 独立系メディアや専門家を攻撃し、受け手の信頼を弱める。
  • ボットやトロールによる増幅
    • ボットネットや協調的な投稿者を用いて可視性や信憑性を作り出す。
  • サイバー攻撃との連携
    • ハッキングや情報漏えいと組み合わせ、盗んだデータに偽情報を混ぜて漏洩させる。

CISA/FBI/ODNIのガイドも同様に、外国の影響工作が行う戦術を具体的に記述している。外国の情報操作者は、数多くの架空人物を作成しオンラインコミュニティに浸透させる。これらのオペレーターは本物の利用者と交流し、メッセージをエコーさせるよう仕向ける。また、プロキシメディアの運営や声のクローン化(2023年スロバキア選挙での偽音声)、ハッキングした文書に偽の内容を混ぜてリークするハック・アンド・リーク作戦、AI生成画像を用いて偽事件を捏造する手口、インフルエンサーに金銭を支払い偽情報を宣伝させる“有償インフルエンス”など、多様な技術を指摘している。

ソーシャルメディア特化の戦術

若者向け教育サイトYALIは、ソーシャルメディア上でよく見られる偽情報の戦術を列挙している。これらは心理学的効果を利用しており、個人ユーザーが注意すべき点を示す。

  • アストロターフィング
    • 極端な意見に対し大量の“いいね”やコメントを付けてあたかも多数派の意見であるかのように見せ、人々が自分の意見を言いにくくさせる。これは前述の増幅段階でボットが演出する社会的証明効果と同じである。
  • コンテンツファーム
    • アルゴリズムが重視するキーワードを含んだ低品質な記事やブログを大量に生産し、検索結果やSNSのタイムラインで偽情報を上位に表示させる。これはマイクロターゲティングと組み合わせることで特定集団に最適化された偽情報を届ける。
  • スリーパー効果
    • 派手なタイトルや記憶に残る物語を拡散し、時間が経つと出典を忘れて真実として信じ込んでしまう心理現象を利用する。
  • クリックベイト
    • 誇張した見出しやサムネイルでユーザーを釣り、偽情報サイトへのアクセスを誘導する。クリック数が多いほど検索エンジンはコンテンツを上位に表示するため、ディスインフォメーションがさらに拡散する。

生成AIがもたらす新たな脅威

近年、生成AIの進歩が偽情報拡散のコストを劇的に下げている。ナショナル・エンドウメント・フォー・デモクラシーの報告は、ロシアや中国などの権威主義国家が生成AIによる情報操作を研究しており、

  1. 高品質な合成メディアを低コストで量産できること
  2. コンテンツ生成のプロセスを自動化し人手を減らせること
  3. 個々のプロフィールに合わせて内容を最適化するマイクロターゲティングが容易になること

を指摘している。これは専門家の見解として、生成AIが既存の戦術を強化し、より個人に特化した攻撃を可能にすることを示す。実際、CISAガイドでも、音声クローンやディープフェイクを活用した偽の音声・映像が選挙干渉に使われた例が報告されている。

生成AIはまた、リアルタイムで大量のソーシャルメディア投稿を生成するボットに統合され、検知を困難にする。欧州理事会が指摘するように、深層学習を使ったAI生成動画や音声による偽コンテンツは、新しいタイプの“偽ニュースサイト”として利用される。ここで注意すべきは、生成AIによる攻撃はまだ歴史が浅く、実際にどこまで効果があるかは定量的には評価できていないという点だ。これから選挙や社会運動での事例が増えれば、技術がどの程度影響を及ぼすかが明確になるだろう。この段階の将来影響に関しては仮説・推測の域を出ない。

攻撃事例とケーススタディ

ハック・フォージ・リークとGhostwriter作戦

ロシア連邦やベラルーシに関連する「Ghostwriter」「Secondary Infektion」と呼ばれる作戦では、ハッキングで入手した文書に偽情報を混ぜて公開し、NATOやEU諸国の信頼を揺るがすキャンペーンが行われた。攻撃者は盗んだ文書に偽の内容を加えることでスキャンダル性を高め、複数のプラットフォームに同時に投稿することで検知を回避した。これは確立された事実で、ハックと偽情報の融合が危険な攻撃ベクトルになっている。

ボットネットによるハッシュタグ乗っ取り

COVID‑19の情報戦では、中国の“Spamouflage Dragon”ネットワークがボットや偽アカウントを使って「中国の対応は透明かつ迅速だった」というプロパガンダを拡散した。このネットワークは数十万のアカウントを使い、TwitterだけでなくYouTubeやFacebookでも同じ内容を投稿した。また、正規の非営利団体が使っていたハッシュタグ「#SaveTheChildren」をQAnon陰謀論者が乗っ取り、児童売買と結び付けてデマを拡散した。このようなハッシュタグ乗っ取りはボットが容易に行えるため、ソーシャルメディアのセキュリティを揺るがす実例として取り上げられる。

選挙干渉と声のクローン

2023年のスロバキア総選挙では、政治家の声をAIでクローン化して偽の電話会話が作成され、有権者に広く拡散された。この攻撃は最後の数日間に行われ、候補者同士が不正な取引をしているように聞こえる音声が広がった。専門家は、声のクローンが簡単に生成できるようになったため、今後の選挙でも同様の攻撃が増えると警告している。

コンテンツ工場とIRAの例

ロシアのインターネット調査機関は、数百人のスタッフを抱える「コンテンツ工場」を運営し、2016年米大統領選では1週間で1,000件以上の投稿を作成した。彼らは米国内の分断を煽り、ポジティブ投稿を織り交ぜることでSNSアルゴリズムのレコメンドに乗りやすくしていた。これにより、単なるネガティブキャンペーンよりも大規模なリーチを獲得した。

今後の見通しと仮説

生成AIとターゲティング技術の進歩により、偽・誤情報攻撃はさらに進化する可能性がある。個別化プロパガンダとして、個人の性別・年齢・趣味・購買履歴などのデータを組み合わせた極めて細かいメッセージが一人ひとりに配信されるシナリオが考えられる。ナショナル・エンドウメント・フォー・デモクラシーは、生成AIが個別プロファイルに基づいたコンテンツ生成を容易にすると指摘しておりned.org、これは今後マイクロターゲティングによる世論操作がさらに巧妙化する可能性を示唆する。これらは専門家の意見を踏まえた仮説であり、社会や規制の反応によって現実化するかは未知数である。

もう一つの仮説は、影響力サービスの商品化である。現在でも、ダークウェブではボットネットや偽アカウントのレンタルが行われている。生成AIにより、文章や動画の自動生成が可能になれば、低コストで影響力を「サービス」として売るマーケットが拡大し、より多くの小規模アクターが偽情報攻撃を実行できるようになるだろう。

まとめ

偽・誤情報攻撃は、社会の分断や心理的な脆弱性を突く高度な作戦であり、複数の段階を経て実行される。偵察からインフラ構築、コンテンツ生成、投入、増幅、議論制御、最終的な現実世界での動員まで、各ステージでボット、ソックパペット、偽ニュースサイト、ハック・アンド・リークなどさまざまな技術が駆使される。EU理事会や米国のガイドは、極端な意見の煽動、コンテンツの改ざんや偽造、信頼できる情報源への攻撃、ボットによる増幅、サイバー攻撃との連携などを主要な戦術として挙げている。生成AIはこれらのプロセスを高速・低コストで自動化し、攻撃者がより広範に個人を標的とすることを可能にする。こうした攻撃技術の実態を理解することは、次回扱う防御策を構築する出発点となる。攻撃者の道具箱が進化する中で、社会全体のリテラシー向上とプラットフォームの安全対策強化が求められる。