2025年の情報セキュリティ白書では、偽・誤情報(misinformation/disinformation)が単なるSNSの迷惑行為を超え、民主主義や公共の安全を揺るがす長期的課題として捉えられています。本稿では、第17回・第18回・第19回で扱った定義・情勢・攻撃技術に続き、既に定着している偽・誤情報の継続事象と2025年以降の見通しを俯瞰し、どのような備えが必要かを解説します。各節では「確立された事実」と「専門家の見解」、最後に未来予測としての「仮説/推測」を明確に分けています。

1. 継続事象:従来の偽・誤情報は形を変えて存続している

1.1 反ワクチンや陰謀論の再利用

確立された事実として、新型コロナウイルスを巡る反ワクチン説や陰謀論は2024年以降も形を変えて流布されています。白書によれば、日本で導入されたmRNAレプリコンワクチンに対し「死亡率が75倍に上がる」といった誤情報が出回り、厚生労働省資料の誤読を利用した主張がSNSで拡散されました。さらに「コロナワクチンで50万人が死亡」「日本で人体実験が行われている」といった極端な主張も見られます。これらは科学的根拠を欠いており、専門家による検証で否定されています。

日本国内に限らず、2024年11月には「日本政府がmRNAワクチンを『史上最も危険な薬』と分類した」とするニュースが中国のSNSで拡散されました。このニュースは親露派サイト「The People’s Voice」に由来し、スクリーンショットが中国のWeiboやX(旧Twitter)に転載されたことが確認されています。ロシアと中国のメディア協力体制が強化されている背景から、日本を題材にした偽情報が両国のプロパガンダ網を通じて広がっている点が警戒されています。

1.2 国家主導の情報戦:ロシア・ウクライナ戦争

確立された事実として、ロシアは2014年のクリミア危機以降、一貫して偽情報を戦略的に用いてきました。白書は2024年度においても、ロシアが「ウクライナの非ナチ化」や「NATOの脅威」といったナラティブを用いて侵略を正当化し、国際世論を分断し続けていると指摘します。2024年には米国国務省報道官の発言を装ったディープフェイク動画がTelegramで拡散され、国営メディアが追随する事例も報告されました。これらの偽情報は、ロシア国内の工作企業(ソーシャル・デザイン・エージェンシーなど)がSNS、国営メディア、偽装ニュースサイトを通じて大量生産・拡散していることから、組織的な情報工作であることは疑いようがありません。

1.3 中東紛争とグローバルな陰謀論

確立された事実として、2023年10月に始まったイスラエル・ハマス紛争に伴い、偽情報が国際的に拡散しました。戦闘シーンとして過去の映像やゲーム画面を流用するケースが多数確認され、AI生成の偽画像や動画が本物として共有されました。SNS分析会社Cyabraによれば、開戦後1か月で4万件以上のボットアカウントが確認され、Facebook・Instagram・TikTok・Xでは紛争関連投稿の約4分の1が偽アカウントによるものでした。この事例は、ボットネットによる大規模な拡散とAI生成コンテンツの融合が、現実の戦争情報空間を混乱させた典型例です。

1.4 過去のナラティブが延命する理由

総括すると、旧来の陰謀論や反権威ナラティブは、一度否定されても新しい文脈に適応し生き残る傾向があります。反ワクチン運動や「ディープステート」陰謀論は、パンデミック終息後も国際条約や新たな有事を標的に置き換えながら拡散しており、国家アクターが戦略的にナラティブを拡散することで自国に有利な認知形成を目指す認知戦の一環となっています。この継続性こそが、偽・誤情報対策を一過性のキャンペーンではなく長期戦略として捉えるべき理由です。

2. 状況のまとめ:生成AIが偽・誤情報を加速させる

2.1 生成AIの一般普及と影響

確立された事実として、2023年以降の生成AIブーム(ChatGPT、Midjourney、Stable Diffusionなど)が偽情報の拡散を加速・巧妙化させています。白書は、SNSに付随したAIサービスGrokが2024年に一般提供され、ユーザーが容易にフェイク画像・音声・動画を作成できるようになった結果、災害時に偽の被害写真が出回り、政治家になりすます偽映像が登場するなどディープフェイクによる混乱が顕在化したと述べています。同時に、国家アクターが戦略的に生成AIを情報操作に利用し始めていることも報告されています。

専門家の見解として、2025年7月に発表された国際シンクタンクの政策レビューでは、生成モデルとエンゲージメント最適化アルゴリズムが偽情報の中心的存在になっており、政治的に関連する虚偽ニュースが人間の識別をすり抜けるほど高品質になっていると指摘します。大規模言語モデルは政治家の話法を模倣し、人間の発言よりも本物らしく感じさせるケースがあるほか、ディープフェイク映像や音声により公人の偽メッセージを大量生成できるようになっています。こうした技術の進化は偽情報のコストを下げ、誰でも大量生産・拡散できる環境を生み出しています。

2.2 ボットと偽アカウントによる拡散

確立された事実として、2024年のイスラエル・ハマス紛争では、SNS投稿の4分の1が偽アカウントによるものだったことからも分かるように、ボットやスパムアカウントが偽情報拡散の初動を支える役割を担っています。学術研究では、米国2016年大統領選挙期間中にソーシャルボットが低信頼ニュース記事の拡散を加速し、重要な初期段階で影響力の高いユーザーへリプライやメンションを行ってバイラル化を促進したと報告されています。この研究は「ボットの取り締まりが偽ニュース拡散抑制に有効である」と示唆しています。

2.3 ディープフェイク技術の社会的影響

カナダ安全情報局(CSIS)の分析では、AI発展によってディープフェイクが「近代的な偽情報の進化形」であり、政府・個人・社会に新たな課題をもたらしていると評価しています。生成AIの進歩により、顔の差し替えや音声合成がよりリアルかつ廉価になり、教育や映画制作といった正の用途がある一方で、政治的な偽映像や非同意のポルノ、詐欺や恐喝などの悪用リスクが急速に増大しています。特に深刻なのは、偽映像が視覚メディアへの信頼を侵食し、人々が本物と偽物を見分けられなくなることです。

3. 今後の見通し:2025年以降の偽・誤情報

3.1 国際政治イベントへの干渉が続く

確立された事実として、白書は2025年も多数の国政選挙や国際行事が予定されており、それらに絡んだ偽情報の増加が懸念されると警鐘を鳴らします。具体的には、ノルウェー、チェコ、アイルランド、シンガポールの主要選挙や、第二次世界大戦終結80周年、G20サミットなどが対象となり、既にドイツでは選挙直前にロシア系グループによる「極右政党への投票用紙が紛失・破棄された」という偽動画が拡散されました。ロシアはウクライナ復興会議などでも「ハイブリッド型サイバー攻撃」を仕掛けるとの懸念があり、新たにインド・パキスタン関係の不安定化に伴う偽情報の増加も予想されています。日本においても国政選挙や外交イベントの際に、国外勢力による情報操作や候補者に対するデマが拡散されるリスクが指摘されており、外部からの干渉と国内情報環境の健全性の両方に注意を払う必要があります。

3.2 AI技術の進化と情報操作

専門家の見解では、AI駆動の偽情報は今後さらに高度化すると予測されています。Frontiers in Artificial Intelligence誌の政策論文によると、最新の大規模言語モデルは政治ニュースを人間と区別できないほど自然に生成でき、AIが模倣する政治家の演説が本人の発言より説得力があると感じられるケースまで報告されています。同論文は、AI生成コンテンツの拡大に伴い「偽ニュースサイトが10倍増加し、2024年時点で1,200以上のサイトが確認された」「北米でディープフェイクを利用した詐欺が2,137%増加した」など世界的な指標を挙げ、ディープフェイクや合成アイデンティティによる詐欺が主流化しつつあると警告しています。また、平均してTwitterの約25%の活動がボットによるものと推定され、悪質なボットがウェブトラフィックの30〜37%を占めるというデータも示されています。こうした数字は、偽情報が従来のニッチな現象から社会全体に拡散する段階へと移行していることを物語ります。

3.3 暗号技術と量子コンピューターの脅威

確立された事実として、量子コンピューターの進歩が従来の公開鍵暗号を破る可能性が現実味を帯びています。米国の国家サイバー局長ハリー・コーカー氏は、量子計算が実用化されれば暗号の機密性・完全性・可用性が同時に崩壊し、攻撃者が政府の電子署名を無効化して「偽の政府通達」を出すことが可能になると警告しました。このような偽の公文書は社会に誤解と混乱をもたらし、偽情報キャンペーンの威力を飛躍的に高める恐れがあります。同氏はポスト量子暗号への迅速な移行と国際的な協力が不可欠だと述べており、暗号技術の刷新が偽情報対策にもつながることが示唆されています。

3.4 仮説/推測:個別化プロパガンダと「認知戦」の深化

今後は、AIとビッグデータ解析を組み合わせた個別化プロパガンダが常態化する可能性があります。これは、SNSの閲覧履歴や購買履歴を基に一人一人に最適化された虚偽情報を届ける手法であり、既に広告業界で使われている技術が政治的影響操作に転用される恐れがあります。また、量子コンピューターが本格化すれば、膨大な暗号通信を短時間で解読し、内部情報を元により精巧な偽情報を生成する「量子強化型偽情報」の時代が到来するかもしれません。こうした予測は現時点では仮説の域を出ませんが、技術の発展スピードを考えると備えは必要です。

4. 対策と備え:マルチステークホルダーの協調とリテラシー向上

4.1 プラットフォームと法規制の強化

専門家の見解では、偽情報対策にはプラットフォーム運営者、政府、研究者、民間企業、教育機関など多様な主体が役割を分担するマルチステークホルダー型アプローチが有効とされています。AI政策レビューは、AI特有の監視メカニズムを民主的なガバナンスに組み込み、プラットフォームの責任を明確化し、各国の規制調和を推進すること、そして市民へのデジタルリテラシー教育を継続することを提言しています。

法規制の観点では、CSISの報告書が深刻なリスクを列挙しています。ディープフェイクは名誉毀損やプライバシー侵害を引き起こすだけでなく、既存の法律が想定していない新たな課題を生み出しており、法整備の更新が求められています。同報告書はまた、AI生成コンテンツに暗号的な真正性マーカーを埋め込む「コンテンツ認証」のアプローチや、個々人が情報に懐疑的になる文化を育てること、社会的指導者にデジタルリテラシー研修を施すことを提案しています。

4.2 検証技術とコンテンツ認証

確立された事実として、AI駆動の偽情報に対抗するための技術研究が進んでいます。ディープフェイク検出ツールやコンテンツ認証技術(電子署名・ハッシュ連鎖・透かしなど)は、生成コンテンツに出所情報を埋め込み、真偽判定を容易にすることを目指しています。専門家は、検出技術とともに事前審査(pre‑bunking)とリアルタイムモニタリングを組み合わせ、誤情報が拡散する前に誤りを指摘する仕組みが効果的であると提案します。また、暗号を量子耐性のある方式に更新し、なりすましや改ざんを防ぐことも偽情報対策の一環です。

4.3 市民へのデジタルリテラシー教育

専門家の見解では、人間の行動が偽情報拡散の主因であるとの研究結果があります。Twitterの大規模分析では、フェイクニュースは本物よりも新奇性や感情誘発性が強く人々の注意を引きやすいことが示され、人間が誤情報を拡散する速度が真実を上回る要因になっているとされています。また、Facebookの研究では、虚偽ニュースを共有するのは一部の高齢ユーザーに集中しており、デジタルメディアリテラシーのギャップが拡散の要因だと指摘しています。さらに、ユーザーに記事の正確性を考えるよう促すだけで誤情報の共有が顕著に減少したという実験結果も報告されており、教育・啓発に大きな効果が期待できます。

5. おわりに

2024年度以前から続く偽・誤情報の拡散は、新型コロナウイルスや地政学的紛争を巡る陰謀論など、旧来のナラティブが形を変えながら生き残ることによって支えられていました。同時に、生成AIとディープフェイク技術の急速な普及が偽情報の生産と拡散を飛躍的に増大させています。2025年以降は世界各国の選挙や国際行事に付随して情報操作が一層激化することが予想され、日本においても国外勢力による介入に警戒が必要です。さらに、量子コンピューターの実用化が暗号基盤を揺るがし、偽情報キャンペーンの手法を一変させる可能性が指摘されています。

こうした複雑化・長期化する脅威に対抗するには、技術・制度・教育を組み合わせた包括的なアプローチが不可欠です。プラットフォームの責任と国際的な規制調和、コンテンツ認証技術の普及、ポスト量子暗号への移行、そして市民のデジタルリテラシー向上を同時に進めることが、未来の情報環境を健全に保つ鍵となるでしょう。