はじめに

ここまでの連載では、ランサムウェアや標的型攻撃、DDoS、AIセーフティなど幅広い脅威を取り上げてきた。第18回は、近年急速に存在感を増している「偽情報(いわゆるフェイクニュース)」と「誤情報」の現状と、2024~2025年に注目された事例を中心に解説する。生成AIの一般化により、文書や画像、音声を誰でも容易に捏造できるようになった一方、誤って拡散される情報も含め、社会に及ぼす影響は甚大である。

1. 用語と分類―偽情報・誤情報・マリンフォメーションの違い

まず、概念を整理する。カナダ政府のサイバーセキュリティセンター(Canadian Centre for Cyber Security)は、情報操作を引き起こす行為を三つの概念に分類している。

  1. 誤情報(misinformation)
    • 意図せずに拡散される誤った情報や不正確な情報。例えば、不確かな噂を善意で共有してしまうケースがこれに該当する。誤情報は悪意を伴わないため根拠を確認することで修正・抑制しやすい。
  2. 偽情報(disinformation)
    • 虚偽の情報を意図的に作成・拡散し、人々を騙したり世論を操作したりする行為を指す。特定の目的(選挙の結果を左右する、企業の信頼を貶める等)を持つため、社会的な被害が大きい。
  3. マリンフォメーション(malinformation)
    • 事実に基づきながら、文脈を歪めたり一部を誇張することで誤解を誘う情報。例えば、過去の発言を切り取って人物攻撃に利用する場合などである。

これらを総称してMDM(misinformation・disinformation・malinformation)と呼び、同センターはMDMが世界経済に年間数十億ドル規模の損失をもたらし、公共の信頼を損なうと指摘する。さらに、機械学習や自然言語処理といった新技術が悪用され、深刻な脅威に発展していることを強調している。

1.1 誰が標的となるのか

外国勢力は、言語的マイノリティやディアスポラ(国外居住者コミュニティ)を特に狙い、社会的・文化的な対立を煽ることで政治体制の不安定化を図る。また、女性は誹謗中傷やハイパーセクシュアライズされたディープフェイクの標的になりやすく、公的な立場から退けられる危険性が指摘されている。こうした背景から、偽情報対策は特定の組織や政府に留まらず、社会全体での取り組みが求められている。

2. 偽・誤情報がもたらす脅威

2.1 国家安全保障への影響

独立行政法人情報処理推進機構(IPA)の『情報セキュリティ白書2025』は、2024年の選挙妨害において生成AIが偽情報の作成に多用され、偽情報の拡散による情報操作が社会の混乱や政府への不信感を招き、国家の安全保障上の脅威とみなされていると報告する。こうした情報操作型サイバー攻撃はサイバー空間だけでなく人々の認知領域にも影響を与えるため、複雑な防御が必要となる。

また、2024年の欧州議会選挙や他国の選挙でも、投票日前後に政党や関連ウェブサイトへの大規模DDoS攻撃が相次ぎ、虚偽情報の拡散が大きな課題となった。特にヨーロッパ各国では政治関連サイトへの攻撃がピーク時に毎秒数万件のリクエストに達し、選挙情報へのアクセス障害と同時に虚偽情報が拡散する事例が報告されている。

2.2 経済への影響と詐欺の進化

MDMは企業に対しても深刻な被害を与える。2024年には英国系エンジニアリング企業 Arup の香港支社で、社員が経営陣の映像と思い込んで参加したビデオ会議が実はAI生成のディープフェイクであり、2,500万ドルが詐取された。この事件は「テクノロジーを用いたソーシャルエンジニアリング」と形容され、ネットワーク侵入を伴わないにもかかわらず多額の資金が失われたことから、従来のサイバー攻撃と比べて人間心理に直接働きかける手口の危険性が指摘された。

また、同白書は2024年度にDDoS攻撃件数が前年比56~160%増加し、フィッシングサイトは約376万件に上ったと報告している。調査会社SlashNextによれば、生成AIの登場以降、悪意のあるメールが4,151%増加し、KnowBe4の調査ではフィッシングメールの82.6%がAIを活用していたという。これらの数字は、従来型の詐欺メールが生成AIによって大量に生産・送信されている実態を示している。

3. 事例研究

3.1 選挙を巡るAI生成の虚偽情報

AIによる情報操作の代表例として、2024年米国ニューハンプシャー州の民主党予備選挙前に発生した「ディープフェイク・ロボコール」が挙げられる。政治コンサルタントのスティーブ・クレイマー氏はバイデン大統領の声をAIで模倣したロボコールを数千人の有権者に送信し、投票を控えるよう呼びかけた。これは米国大統領選で初めて確認されたディープフェイクによる選挙介入であり、クレイマー氏はニューハンプシャー州で複数の罪に問われ、米連邦通信委員会から600万ドルの罰金を科された。この事件を受け、米国ではAI生成音声を用いたロボコールを禁止する措置がとられ、選挙関連の自動通話技術に対する規制が強化された。

一方、公共政策研究機関の調査では、人々の懸念も高まっている。ハーバード大学のMisinformation Reviewが2023年に実施した調査では、米国成人1,000人のうち約83.4%が「AIが選挙における偽情報の拡散に使われることを懸念している」と回答し、AIツールの利用経験の有無にかかわらず高い不安が示された。また、同研究では2024年1月にニューハンプシャー州の有権者がバイデン氏の声を模したロボコールを受けた事例を取り上げ、生成AIが政治操作に利用される可能性を示す例として警鐘を鳴らしている。

3.2 国内災害時の偽情報:能登半島地震

2024年1月に発生した能登半島地震では、SNS上で「特定の住所で家屋が倒壊したので救助が必要」といった救助要請が多数投稿された。しかし、東京大学大学院の澁谷遊野准教授らの調査によると、X(旧Twitter)の収益化導入後、閲覧数目当てに複製投稿された偽・誤情報は約54パターン・計3,938件で、その91.9%は日本語話者ではない「インプレゾンビ」アカウントによるものだった。この研究は、インプレッション稼ぎを目的とした海外利用者が災害時にも偽情報を拡散している実態を示している。

また、同研究では、地震関連投稿の総数約70万件に対し偽情報の割合はごくわずかであり、多く閲覧された投稿のほとんどは正確な情報や救援に役立つ内容だったと報告している。この結果は、災害時においてもSNS上では有益な情報が多数を占め、個人による自発的な偽情報抑止の動きが重要であることを示唆している。

3.3 ディープフェイク詐欺とソーシャルエンジニアリング

海外では、企業を狙ったディープフェイク詐欺が急増している。先述したArupの事件では、社員がビデオ会議で経営幹部と話していると信じ込み、2,500万ドルを送金した。この攻撃は「技術を駆使した社会工学攻撃」であり、ネットワークに侵入せずに巨額の金銭を奪うことに成功したことから、多くの企業に衝撃を与えた。

近年はこの他にも、AIによる声の模倣で経営者や財務責任者になりすまし、不正送金を指示する「ビジネスメール詐欺」の進化系が報告されている。今後、生成AIの品質向上と普及によって、こうした詐欺がさらに洗練され、検知が難しくなる可能性が高い。専門家は、社員への教育や多要素認証、電話やメール以外のチャネルでの確認を徹底することが重要だと指摘している。

4. 対策と今後の展望

4.1 個人ができること

カナダのガイドでは、偽・誤情報に騙されないための基本的なチェックリストが提示されている。情報に接する際は、以下の点を確認しよう。

  • 感情を過度に刺激していないか。
  • 極端な主張や物議を醸す内容ではないか。
  • クリックベイト的な見出しではないか。
  • 一部の真実を誇張・歪曲していないか。

また、ファクトチェックサイトの利用や逆画像検索による真偽確認、送信元やドメイン名の確認、情報が最新かどうかの確認なども有効である。SNS上の情報をそのまま信じず、ソースに当たる姿勢が求められる。

4.2 組織・社会レベルの対策

組織においては、ソーシャルメディアやウェブ上で自社に関する投稿を監視し、早期に偽情報を検知・対応する体制が必要である。検索エンジン最適化(SEO)や回答エンジン最適化(AEO)によって正確な情報の露出を高める施策、顧客やユーザーとの信頼関係を構築する取り組みも推奨される。さらに、AIを用いたコンテンツ分析や、複数のニュースメディアによるファクトチェック連携など、技術的な検知手法の研究も進んでいる。

政府やプラットフォーム側の取り組みも進展している。米国では、バイデン氏の声を模倣したロボコール事件を受け、AI生成音声を用いた自動通話を禁止する規制が導入された。カナダや欧州でも、選挙期間中の情報操作を監視・抑制するための法整備が進行中だ。IPA白書は、サイバー攻撃の兆候を早期に探知して攻撃主体を特定し、排除する「能動的サイバー防御」の重要性を訴え、官民連携の強化を求めている。

4.3 生成AI時代の展望と課題

生成AIが社会に浸透するにつれ、偽・誤情報の脅威は変質している。生成AIは、大量の文章や画像、音声を極めて低コストで生成できるため、誤情報の量的増加や偽情報の巧妙化が懸念される一方、既に広範な事例分析を通じて、AIが必ずしも誤情報の爆発的な増加につながっていないとの指摘もある。例えば、プリンストン大学とコロンビア大学の研究者は、2024年の世界の選挙における78件のAI利用事例を分析し、半数近くは選挙運動や広報などの非欺瞞的な用途だったと報告している。また、ニュースリテラシー・プロジェクトのデータでは、AIを用いない「チープフェイク」(安価な合成)の方がAI生成コンテンツよりも約7倍多く利用されているとも指摘される。このような研究結果から、偽・誤情報対策では生成AIだけでなく、従来の情報操作手法や分配ネットワークへの対処が重要であることが示唆される。

生成AIは攻撃側だけでなく防御側にも活用できる。AIは画像や音声のメタデータ解析や異常検知に利用でき、ディープフェイクの検出精度向上や偽情報拡散ネットワークの早期発見に役立つと期待されている。ただし、検知技術と同時に、AI倫理、プライバシー保護、表現の自由とのバランスを考慮した制度設計が欠かせない。

5. おわりに

偽・誤情報は、意図的な攻撃であれ善意の誤伝達であれ、社会に混乱と不信をもたらす重大な脅威である。IPA白書が指摘するように、生成AIを利用した情報操作は国家の安全保障にも影響を与えるため、政府・企業・個人が一体となって対策を講じる必要がある。具体的には、情報リテラシー教育の徹底、早期検知のための監視システム、法制度やプラットフォーム規制の整備、そして生成AI活用に伴う倫理と透明性の確保である。

今後の展望として、AIを含むテクノロジーの進化は偽・誤情報の作成と検出の両面に影響を与え続けるだろう。2024年以降は、人々の情報への向き合い方やメディア環境の変化を踏まえた「認知領域のセキュリティ」がますます重要になると考えられる。本稿が、読者が偽・誤情報に対して主体的に行動するきっかけとなり、より健全な情報空間を築く一助となれば幸いである。