はじめに

2024年はサイバー攻撃の手口がますます高度化した一年でした。その中でも、選挙や国際政治を狙った情報工作、AIを悪用した偽・誤情報(以下、MDM: Malinformation/Disinformation/Misinformation)の拡散が、社会の安定や民主主義を揺るがす深刻な問題として浮上しました。IPAの『情報セキュリティ白書2025』は、生成AIが選挙妨害に使われ、偽情報の流布が社会の混乱や政府に対する不信を招き、サイバー領域と認知領域にまたがる国家安全保障上の脅威となっていると警告しています。各国の選挙では偽・誤情報の拡散が大きな問題となり、DDoS攻撃などのサイバー攻撃と連動した事例も報告されました。

1 偽・誤情報の定義

1.1 用語の区別

情報セキュリティ分野では、偽・誤情報を大きく以下の三つに分類します。これらは目的や真偽によって異なる概念であり、混同しないことが重要です。

  1. ミスインフォメーション (Misinformation)
    • 誤った情報が意図せず広まる状態を指します。カナダ国防省の「Mal‑Dis‑Mis Information」の解説では、「ミスインフォメーションは偽であるが害を与える意図はない情報」と定義されています。例えば、友人がコンビニの営業時間を勘違いして共有してしまうようなケースです。日本心理学会を含む心理学分野でも「事実を間違えることがミスインフォメーションの本質である」と説明しています。これは悪意がないため犯罪とは言えませんが、結果的に混乱を招くことがあります。
  2. ディスインフォメーション (Disinformation)
    • 故意に人々を誤導するために作られた虚偽情報を指します。カナダ国防省は「特定の個人や組織を誤導し、損害や混乱を引き起こす目的を持つ情報」と定義しています。American Psychological Association (APA) も「ディスインフォメーションは意図的に事実を歪める行為である」と説明しています。FIREの解説では、「ディスインフォメーションは悪意を持った嘘であり、話者がそれが嘘だと知りながら意図的に人を欺こうとするもの」と強調されています。国家プロパガンダや組織的な情報操作が典型的な例です。
  3. マルインフォメーション (Malinformation)
    • 真実に基づく情報が意図的に誇張・曲解され、他者を貶めたり損害を与えるために利用されるものです。カナダ国防省は「誇張された真実に基づき、誤解を与え、潜在的に損害を与える情報」と説明しています。例えば、個人のプライベートな情報を文脈を歪めて拡散する行為や、企業の内輪のメールを切り取って批判を誘導する行為などが該当します。

上記の用語区分は、偽・誤情報対策を検討する際に基本となる概念です。確立された事実として、各国の政府や心理学会、国際機関が同様の定義を用いており、国際的にも共通理解が形成されています。

1.2 偽・誤情報の特徴と動機

偽・誤情報が生まれる背景には様々な動機が存在します。悪意の有無や商業的/政治的目的によって動機が異なるため、それぞれの背景を理解することが重要です。

  • 偶発的な間違い(Misinformation)
    • データや事実を誤解したり、情報源を確認しないまま共有した結果、誤った情報が拡散するケースです。ソーシャルメディアでは個人が簡単に発信できるため、この種の誤情報が急速に広がります。
  • 政治的意図やプロパガンダ(Disinformation)
    • 国家や政治団体が世論操作や選挙干渉を目的として虚偽情報を拡散するケースが挙げられます。情報セキュリティ白書では、生成AIが選挙妨害に使用され、偽情報の流布が社会の混乱と政府への不信を引き起こし、国家安全保障上の脅威となっていると指摘しています。
  • 個人攻撃・金銭目的(Malinformation)
    • ディープフェイク動画や流出した個人情報を用いて、恐喝や詐欺、企業への評判攻撃が行われることがあります。ISC2の報告では、ディープフェイク作成ツールの価格が100ドル程度まで下がり、多数のツールがダークウェブで入手可能となった結果、偽動画を用いた詐欺が増加し、世界各国で高額の被害が発生していると報告しています。

2 偽・誤情報拡散の背景

2.1 ソーシャルメディアとバイラル拡散

現代の情報拡散はインターネット上のソーシャルメディアや動画共有サイトを通じて瞬時に広がります。アルゴリズムは利用者の興味や関心に合わせてコンテンツを推奨するため、偏った情報がサイロ(エコーチェンバー)を形成しがちです。誤った情報や扇情的な見出しの方が注目されやすく、クリック数や広告収入を目的としたサイトが誇張や虚偽情報を拡散することもあります。AIを活用したボットが自動で拡散に加担するケースも確認されています。心理学の研究でも、人は自分の信念を補強する情報を優先的に受け入れる「確証バイアス」や、怒りや恐怖など強い感情を引き起こす情報を共有しやすい性質が示されています。これらの要因が複合し、偽・誤情報は瞬時に世界中へ広がりやすくなっています。これは専門家の見解であり、多くの研究が指摘するところです。

2.2 AIと自動生成技術

生成AIや大規模言語モデル(LLM)は、文章・画像・音声を巧妙に生成する能力を持ちます。2024年には、AIを利用したフィッシングメールの件数が前年より53.5%増加し、82.6%のフィッシングメールがAIを活用しているとの報告があり、AIが詐欺や悪意ある情報拡散に使われ始めていることが分かります。ISC2によると、100ドル程度で高品質なディープフェイク動画を作成できるツールが出回り、企業の経理担当者が偽のビデオ会議に騙され数千万ドル規模の被害を受けるケースも発生しています。また2024年5月の調査では、企業の25.9%が深刻なディープフェイク攻撃を経験し、AIによる不正行為が2027年には米国だけで400億ドル規模の詐欺を生む可能性があると指摘されています。

こうしたAI技術の汎用化は、個々人でも簡単にコンテンツ生成が可能となる一方、確立された事実として悪用の危険性も高まっています。情報セキュリティ白書では、生成AIを用いて偽情報を大量に生成し選挙妨害や情報操作を行う事例が報告され、国家安全保障上の大きな脅威となっていると述べています。AIが出力する情報は見た目の信頼性が高く、内容が正しいかどうか判断しづらいため、人々が誤情報を拡散するリスクが増大します。これは専門家の見解として国際的に共有されています。

2.3 選挙・政治への影響

偽・誤情報は民主主義の根幹にも影響します。2024年の複数の国家選挙では、政党や政治関連サイトへのDDoS攻撃が行われただけでなく、候補者や政策に関する虚偽情報がSNS上で拡散され大きな議論を呼びました。情報セキュリティ白書では、欧州やアフリカの選挙に関連するサイトへのDDoS攻撃とともに、虚偽情報の拡散が大きな問題となったと記述しています。生成AIがこのような情報操作に利用されたとされ、社会の分断や不信を煽る目的があると分析されています。SNSで拡散される偽情報は投票者の判断に影響を与える可能性があり、民主主義の正当性を損なう危険性があるというのが専門家の共通認識です。

3 偽・誤情報の拡散手法

偽・誤情報を拡散する攻撃者は、心理的効果を最大化するために様々な手法を用います。ここでは代表的なものを紹介します。

3.1 感情誘導型コンテンツ

誇張された見出し、恐怖や怒りを煽る表現、過激な画像や音声を用いて閲覧者の感情を刺激する手法です。AI生成の文章や画像が利用されることで、より自然な表現で感情を揺さぶることができます。感情が先行すると論理的な判断が鈍り、情報の真偽を確認せずに拡散してしまう人が増えます。これは心理学的な実験でも確認されている確立された事実です。

3.2 ディープフェイクと合成音声

顔や声を高度に合成する技術で、本人が言ってもいない発言や行動を捏造する手法です。ISC2の報告では、深層学習技術の進化により100ドル程度で高品質なディープフェイクが作れるようになり、企業の社員が上司を模したビデオ通話で詐欺被害に遭った事例が紹介されています。これらは確立された事実として多数報告されており、犯罪グループが金銭目的で利用するケースが増えています。

3.3 ボットネットと自動拡散

フェイクアカウントやボットネットを使い、大量の投稿やリツイートで情報を拡散させる方法です。ボットが特定の話題をトレンド化させ、実際の世論のように見せかけることで、人々の認知バイアスを利用します。AIアルゴリズムを活用した自動生成コンテンツにより、投稿内容が多様化し検出が難しくなっています。このようなボット操作はSNS企業が対策を進めているものの、国際的な取り締まりが追いついていないのが現状です。

3.4 クロスプラットフォーム攻撃

同じ偽情報を複数のプラットフォームで同時に拡散し、相互に信憑性を補強する手法です。ブログ記事、YouTube動画、SNS投稿、チャットアプリなど多様なメディアを使い、一貫したストーリーを提示します。これは専門家が「情報操作キャンペーン」の特徴と捉えており、国家レベルのディスインフォメーション作戦で多用されています。

3.5 検索エンジン最適化(SEO)悪用

偽情報サイトを検索結果上位に表示させるため、キーワードの最適化やリンクファームを利用する手法です。信頼されているウェブサイトを乗っ取ってリダイレクトさせる「水飲み場型攻撃」も行われています。利用者が「検索結果にあるから安心」と誤認し、内容をチェックせずに信じてしまう点を突いています。

4 偽・誤情報がもたらす影響

偽・誤情報の影響は個人の行動変容に留まらず、社会全体に深刻な影響を及ぼします。

4.1 社会的混乱と民主主義への脅威

誤った情報が広まると、公共政策や選挙に対する信頼が損なわれます。情報セキュリティ白書では、生成AIが偽情報を大量生成し、選挙妨害や社会の分断を狙う攻撃が報告されています。また複数国の選挙で虚偽情報の拡散が問題になったと記されており、民主主義の根幹に影響を与える可能性が指摘されています。世論が操作されることで、政府やメディアへの信頼が低下し、社会の分裂が進行します。これは確立された事実として多くの事例が報告されています。

4.2 経済への影響

偽・誤情報は企業にも直接的な損害を与えます。ディープフェイクを用いたビジネスメール詐欺やなりすましによって、企業が巨額の損害を被った事例が報告されています。さらに、製品に関する虚偽のレビューや風評がSNSで拡散されることで企業のブランド価値が毀損し、株価が変動するなど経済への影響もあります。AIを用いた自動生成レビューが増加し、検証が難しくなっていることから、企業は新たなリスク管理が必要とされています。

4.3 個人への影響

個人が偽情報に騙されると、健康被害や金銭的損失につながることがあります。例えば、偽の医療情報や投資詐欺の広告に騙されるケースです。深刻なのは、個人情報やプライバシーがディープフェイクやマルインフォメーションに利用され、名誉毀損やハラスメントの被害につながる点です。また、誤情報を拡散した本人が意図せず加害者となり、社会的信用を失う恐れもあります。これは専門家の見解として、心理学や社会学の研究でも示されています。

5 偽・誤情報への対策

偽・誤情報に対抗するためには、技術的対策と社会的対策の両方が必要です。以下に有効と考えられる施策をまとめます。

5.1 メディア・情報リテラシー教育

個人が情報の真偽を見極める力を養うことが最重要です。カナダ国防省のガイドでは、情報を共有する際に「誰が作ったのか」「どこで発信されたのか」「証拠はあるか」といった点を確認するよう勧めています。学校教育や職場研修にメディアリテラシーの講座を組み込み、感情に流されず情報を批判的に評価する習慣を促すことが効果的です。これは確立された事実として多くの教育機関が導入している対策です。

5.2 ファクトチェックと検証の仕組み

第三者機関によるファクトチェックサービスを活用し、SNSプラットフォームも偽情報に対して警告表示や削除措置を強化する必要があります。検索エンジンやプラットフォームがAIを用いて疑わしいコンテンツを検出し、ユーザーに注意喚起する機能を設けることは、有効な技術的対策です。ただし、検閲との線引きや表現の自由への配慮が不可欠であり、透明性の高い運用が求められます。

5.3 AI検出技術の活用

ディープフェイク検出ツールやテキスト生成検出器など、AIを悪用したコンテンツを自動検知する技術が次々に開発されています。ISC2の報告では、AIツールを用いたディープフェイク検出の研究が進んでいるものの、100%完璧ではないため、人間の確認と併用することが重要だと指摘されています。AI検出技術は攻撃と防御の競争の一部であり、継続的な改良が必要です。

5.4 ゼロトラストと手続きを守る体制

企業や組織は、ビジネスメール詐欺やディープフェイク詐欺に対処するために「ゼロトラスト」原則を導入することが推奨されます。これは「何も信用せず、全て検証する」という考え方で、例えば財務部門での支払い時には必ず複数人の承認を求める、口頭や動画での指示だけでは処理を進めないといった手続きを整備します。ISC2の解説では、社員が上司を騙ったビデオ通話に惑わされないよう、二要素認証や四眼原則(4‑eye principle)の導入が効果的だと述べています。これも確立された事実として多くの企業で採用されています。

5.5 国際協調と法制度

偽・誤情報は国境を越えて拡散するため、国際的な協力が不可欠です。各国政府がプラットフォーム事業者や通信事業者と協力し、情報操作キャンペーンを早期に検出・抑制する体制を構築する必要があります。法整備も進んでおり、欧州ではデジタルサービス法がプラットフォームに対して違法コンテンツの迅速な削除と透明性報告を義務付けています。日本でも「能動的サイバー防御」の検討が進み、偽情報を使った攻撃への備えが強化されています。ただし、言論の自由とのバランスを取ることが課題であり、慎重な議論が求められます。

5.6 AI倫理と安全性の確保

生成AIの急速な普及に伴い、AI倫理やセーフティの議論も進んでいます。出力データの検証、訓練データの選別、モデルの説明可能性の向上などが求められており、米国やEUではAIリスクマネジメントや透明性に関する指針が策定されています。IPAもAIセーフティの一環として、AIが引き起こすリスク(誤動作、偏見、悪用)を分類し、技術的な安全対策を推進していると述べています。AI開発者には、偽・誤情報を抑止する機能(出力の検閲や水印付与など)の実装が期待されます。

6 今後の展望とまとめ

偽・誤情報は、人々の認知や社会システムに深刻な影響を与えるサイバーリスクであり、AI技術の発達によってその脅威は増大しています。IPAの白書が指摘するように、生成AIは偽情報生成の効率を飛躍的に高め、選挙妨害や社会混乱の手段として利用されつつあります。一方で、AIを活用した検出技術やファクトチェック、ゼロトラストなどの対抗策も発展しています。今後は次の点が重要になるでしょう。

  • 教育と啓発の強化
    • 誤情報を見抜き、拡散しないための教育を早期から行い、社会全体の免疫力を高める。
  • プラットフォームの責任と透明性
    • SNSや検索エンジンはアルゴリズムの透明性を高め、偽・誤情報の拡散を抑制する仕組みを導入する。
  • AIセーフティと法制度の整備
    • AIが情報操作に使われるリスクを減らすため、開発段階から安全性・倫理性を担保し、国際的な基準作りを進める。
  • 国際協調と技術連携
    • 偽・誤情報は国境を超えるため、各国が情報共有し、統一的な対応策を検討することが求められる。

情報の真偽を見極める力や、健全な情報環境を守る技術・制度が整えば、偽・誤情報による被害を抑えることが可能です。IPAの白書が指摘するように、認知領域への攻撃は今後も続くとみられ、警戒と対策の継続が不可欠です。

以上、偽・誤情報の定義と背景、拡散手法や影響、対策を概観しました。本記事がエバンジェリストとして活動する読者の皆さまにとって、情報発信やセキュリティ啓発の参考になれば幸いです。