はじめに
生成AIや大規模言語モデル(LLM)の登場によって、AI は知識生成や意思決定補助などに急速に浸透し、行政や企業、個人が容易に利用できる時代が到来した。これに伴い、知的財産権侵害や偽情報の生成と拡散などの新たな社会的リスクが顕在化している。独立行政法人情報処理推進機構(IPA)が定義する「AI セーフティ」とは、人間中心の考え方をもとに、社会的リスクを低減するための安全性・公平性、プライバシー保護、AI システムの脆弱性や外部攻撃への対応を含むセキュリティ確保、検証可能性と適切な情報提供による透明性を確保した状態である。IPAはAIセーフティを「狭義」と「広義」に区分しており、狭義ではAI出力のバイアス低減や説明可能性確保など技術的対策を指す一方、広義ではAIガバナンスの浸透や高リスク用途への規制、AIに対抗するための防御技術の推進など社会的対策全般を含む。
AIの安全・安心な活用を実現するためには、このようなリスクと便益を両立させるガイドラインや法制度が不可欠である。白書第2章では「AIセーフティに関する取り組み」がまとめられており、多国間枠組みや国内政策の動向を紹介している。本稿では、日本における最新のガイドラインや評価指標、政府基本計画を整理した上で、国際的な規制や行動規範を比較し、AI セーフティの実現に向けた課題と展望を解説する。
1. 国内のAIセーフティ施策
1-1 AI事業者ガイドライン(第1.1版)の概要と基本理念
総務省・経済産業省は2025年3月28日、「AI事業者ガイドライン(第1.1版)」を公表した。同ガイドラインは2019年策定の「人間中心のAI社会原則」や従来の開発・利活用ガイドラインを統合し、急速に拡大する生成AIのリスクと国際的な議論を反映して策定された非拘束的なソフトローである。背景には、生成AIの台頭による知的財産権侵害や偽情報生成など新たな社会的リスクの多様化があり、従来の規制では追い付かない問題に対応する必要があった。
ガイドラインは「基本理念」「原則」「共通の指針」「高度なAIシステムに関係する事業者に共通の指針」「AIガバナンスの構築」という五つの部から構成される。基本理念としては、「人間中心の社会」「AIによるイノベーションと社会課題解決の両立」などが掲げられ、OECD AI原則やG7香川・高松会合で提案したAI開発原則を踏まえている。ガイドラインはルールベース規制ではなくゴールベースの考え方を採用し、イノベーションを阻害しない自発的な取組を促すことを狙いとしている。国際的な議論や利害関係者の懸念を踏まえ、マルチステークホルダーによる検討と関係者の協力を求めている点も特徴的である。
1-2 10の原則と共通の指針
ガイドラインはAIに携わる各主体が念頭に置くべき10項目を共通の指針として示している。評価ガイドラインでは、この10項目のうち特に7つをAI セーフティの重要要素として抽出している。その項目は次のとおりである。
| AIセーフティにおける重要要素 | 内容の要旨 |
|---|---|
| 人間中心 | AIは人間の尊厳と自律性を尊重し、人間の意思決定を支援するものでなければならない。 |
| 安全性 | AIの運用や出力が生命・身体・財産・環境に危害を及ぼさないよう設計し、AIシステムのライフサイクル全体で適切な安全確保策を講じる。 |
| 公平性 | バイアスや差別を防ぎ、個人や社会集団が不当に不利益を受けないようにする。 |
| プライバシー保護 | 個人データの収集・利用・学習において適切な管理と保護を行い、個人情報保護法等に準拠する。 |
| セキュリティ確保 | 外部攻撃や不正利用からAIシステムを守り、脆弱性の定期的なテストと修正を実施する。 |
| 透明性 | AIモデルの設計・データ・意思決定過程について説明可能性を高め、利用者に理解できる情報を提供する。 |
| アカウンタビリティ | 法的・実務的責任の所在を明確にし、各主体が合理的な範囲で責任を負う。 |
これらの項目に基づき、開発者・提供者・利用者に共通の行動指針が提示されている。例えば開発者には、データ品質の確保、モデルのバイアス測定と是正、トレーサビリティの確保、レッドチーミングなど多様なテスト手法を組み合わせたリスク評価と緩和策の実施が求められる。提供者は、AIシステムの能力・限界・適用外の使用領域を公表し、透明性報告書を作成する義務がある。利用者には、AIを人間の意思決定補助として位置付け、出力の検証・監視を行うことなどが推奨される。また、ガイドラインは人権尊重や民主主義の価値観を損なうようなAIの開発・利用を厳しく戒めており、テロ支援や犯罪的悪用を容認しない姿勢を明確にしている。
1-3 行政における生成AI調達・利活用ガイドライン(DS‑920)
デジタル庁は2025年4月、「行政の進化と革新のための生成AIの調達・利活用に係るガイドライン(DS‑920)」を策定した。これは政府機関が生成AIを利活用する際の標準的なルールを示したもので、生成AIの利活用促進とリスク管理を表裏一体で進めることを目的としている。ガイドラインは「ユースケースの発掘・検証を進めつつ、リスクに応じたガバナンス体制を整備する」という姿勢を採り、先進的AI利活用アドバイザリーボードの設置やAI統括責任者(CAIO)の配置などの組織的措置を盛り込んでいる。政府が率先してAIを活用することで、信頼できるユースケースを蓄積し、国内社会全体のAI活用を促進することが掲げられている。
DS‑920では、生成AIをリスクの程度に応じて分類し、特に「高リスクな生成AI利活用」については事前にアドバイザリーボードに報告し、リスク対応策の検討を義務付けている。また、企画・調達・開発・運用の各段階での留意事項が整理され、調達時には生成AIシステムが満たすべき要件(セキュリティ基準や知的財産権への配慮など)を明確にし、運用時には出力の評価・検証を継続的に行うことが求められる。ガイドラインはG7広島プロセスで採択された国際指針や、国内外のAI事業者ガイドラインを参照し、国際的な調和を図っている。
1-4 AIセーフティに関する評価観点ガイド(AISI v1.10)
AIセーフティ・インスティテュート(AISI)は2024年9月に「AIセーフティに関する評価観点ガイド」を公開し、2025年3月に第1.10版へ改訂した。ガイドは、AIシステムの開発者や提供者がAI セーフティ評価を実施する際の基本的な考え方を示すものであり、日本が主導した広島AIプロセス国際指針・行動規範の内容を踏まえている。AISIはAIシステムがブラックボックスであり生成AIの入出力バリエーションが多いことを課題に挙げ、適切な実装や利用がなされない場合に心理的・社会的な悪影響が生じると警告している。
評価ガイドでは、AI事業者ガイドラインの重要要素を基礎としながら、生成AIを含むAIシステムの安全性を測る10の評価観点を提示している。有害情報の出力制御、偽誤情報の出力や誘導の防止、公平性と包摂性、ハイリスク利用・目的外利用への対処、プライバシー保護、セキュリティ確保、説明可能性、ロバスト性、データ品質、検証可能性である。例えば「有害情報の出力制御」では、AIが暴力的・差別的・自殺誘発などのコンテンツを生成しないようにする仕組みや、誤った判断を助長する可能性のある出力を抑制することが求められる。各評価観点には関連するAI セーフティ要素との関係性や想定されるリスクが記載されており、ツールによる評価、レッドチーミング、マネジメント的評価を組み合わせて多面的に評価する手法が紹介されている。
1-5 人工知能基本計画とAIガバナンスの主導
2025年12月23日に閣議決定された「人工知能基本計画」は、「信頼できるAI」による日本再起を掲げ、世界で最もAIを開発・活用しやすい国を目指すと宣言している。計画では、人とAIが協働する社会を実現するためにAIの適正性を確保するガバナンスを構築し、日本国内のみならず国際的なAIガバナンスの構築を主導すると明記している。政府は自ら生成AIを積極的に活用し、デジタル庁と各府省庁がAI統括責任者やアドバイザリーボードを設置してAIの利活用を推進・監督する体制整備を進めている。この基本計画はAI事業者ガイドラインやDS‑920を補完し、政策面からAIイノベーションと信頼確保の両立を目指している。
2. 国際的なAIセーフティの潮流
2-1 G7広島プロセスと国際指針・行動規範
日本が議長国を務めた2023年のG7では、「高度なAIシステムを開発する組織向けの広島プロセス国際指針」と「国際行動規範」が採択された。これらの指針は、最先端の基盤モデルや生成AIを含む高度なAIシステムを安全・安心・信頼できる形で普及させることを目的とし、学術界・民間部門・公共部門を含むあらゆる組織に適用される。指針はOECD AI原則を基礎とする生きた文書であり、各国やステークホルダーとの協議を通じて発展していくことが想定されている。また行動規範は、これらの指針に基づいてリスクベースのアプローチを実践するための手引きであり、国際的なモニタリングメカニズムや説明責任の確保が盛り込まれている。
広島プロセス国際指針では、AIライフサイクル全体にわたるリスクの特定・評価・軽減を求め、導入前・市場投入前のレッドチーミングや内部・外部テスト、リスク緩和策の実施を推奨している。導入後も脆弱性や悪用事例の監視と対処を求め、報告されたインシデントの文書化と関係者との協力を奨励している。さらに、AIシステムの能力・限界・適用範囲を公表し透明性報告書を公開することを求め、利用者がモデルのアウトプットを解釈できるようにすることでアカウンタビリティを高めている。
行動規範は、AIシステムの設計・開発・導入において法の支配、人権、多様性、公平性、無差別、民主主義、人間中心主義を尊重し、民主主義の価値観を損ないテロや犯罪を助長する用途を容認しないと明記している。また、化学・生物・放射性・核のリスクや攻撃的サイバー能力の悪用といったハイリスク領域への応用に特に注意を払い、テストと緩和策を設計する際にこれらのリスクを十分に考慮するよう求めている。
2-2 EU AI Act(人工知能規則)
欧州連合は2024年にAI Actを採択し、2025年から施行に向けた最終調整を進めている。AI Actはリスクベースアプローチを採用し、AIシステムを四つのリスクカテゴリに分類して規制する。まず、脳波や顔の表情などを解析して弱みを利用する「操作的AI」や社会的信用スコア、未成年者に対する玩具の感情認識といった用途は「許容できないリスク」として禁止される。続いて、雇用や教育、医療、重要インフラ、司法分野などに利用されるAIは「高リスクAI」とされ、リスク評価、質の高いデータセットの使用、ログの保存、文書化、人的監視、堅牢性とサイバーセキュリティの確保など厳格な義務が課せられる。詐欺検知や広告など一部の用途は「限定リスク」に分類され、ユーザーへの透明性や説明義務が求められ、チャットボットであることを明示する必要がある。それ以外の用途は「最小リスク」とみなされ、規制対象外とされる。AI Actは汎用AI(GPAI)に対する開発者・提供者の義務も明確にし、モデルの透明性や安全性を確保するためのルールを定めている。
2-3 NIST AI Risk Management Frameworkと米国の取り組み
米国国立標準技術研究所(NIST)は2023年1月に「AI Risk Management Framework(AI RMF)」を公表し、2024年7月には生成AIプロファイルを追加した。同フレームワークは民間・公共部門がAIに関連するリスクを管理する能力を向上させるための自発的な枠組みであり、信頼性や公平性、セキュリティなどの観点をAIの設計・開発・利用・評価に組み込むことを目的としている。AI RMFは幅広いステークホルダーによる合意形成に基づいて作成されており、リスクマネジメントの四つの主要機能(Govern・Map・Measure・Manage)を示すとともに、各機能における具体的なアクションやベストプラクティスを提供している。2024年7月に追加された生成AIプロファイルは、生成AI特有のリスクを整理し、組織が目標や優先事項に応じてリスク対応策を検討するための指針を提供している。米国政府はAI RMFの実装を促進するため、信頼できるAIリソースセンターを設立し、連邦政府のAI利用と調達に関するガイダンスを発出するなど政策面からも支援を行っている。
2-4 その他の国際的な取り組み
英国やカナダ、シンガポールなどもAIセーフティに関する指針や法制度整備を進めている。例えば英国は2023年にAIセーフティサミットを開催し、安全なAIに関する国際的な研究機関の設立を提案した。シンガポールのIMDAはAIガバナンスに関する「Model AI Governance Framework」を更新し、リスクベースのアプローチやレッドチーミングを組み込んでいる。これらの国や地域はGPAI(グローバルパートナーシップ・オン・AI)やOECDと連携しながら、AI セーフティのベストプラクティスを共有しており、日本のAISIもこうした国際会議に参加している。
3. 考察:AIセーフティ推進に向けた課題と展望
3-1 リスクベースアプローチの定着とガバナンスの実装
国内外のガイドラインはいずれもリスクベースアプローチを採用している。AI事業者ガイドラインやAI RMF、EU AI Actは、事前に用途や影響度に応じてリスクを評価し、その大きさに応じて対策の程度を決定するという考え方を共有する。日本の白書は「利用分野で生じうるリスクの大きさを把握し、その対策の程度をリスクの大きさに対応させる」方法をリスクベースアプローチと定義している。しかし、リスク評価の実行にはデータの提供や透明性が不可欠であり、企業や政府が競争上の理由から情報公開を渋る場合もある。国際的に相互運用可能な評価基準や報告様式の整備が課題となるだろう。
3-2 多様なステークホルダーによる協働
AIセーフティは開発者・提供者・利用者のみならず、教育機関、市民社会、法制度策定者、監査機関など幅広いステークホルダーが関与する必要がある。AI事業者ガイドラインがマルチステークホルダーの参画を謳っているように、国内でも産学官が連携し、AIのメリットとリスクの両方を理解する教育・啓発活動を充実させることが求められる。AISIの評価観点ガイドでは、技術的評価とマネジメント的評価を組み合わせることを推奨し、社会技術的問題への対応を検討すべきと指摘している。これは企業内の専門家だけでなく、倫理学者や人権団体、ユーザー代表者が評価に参加する重要性を示している。
3-3 イノベーションと規制の両立
AIセーフティ政策はイノベーションを阻害しない形で設計する必要がある。AI事業者ガイドラインがゴールベースのソフトローである理由もそこにある。EU AI Actでは最小リスク用途に対する規制を行わず、限定リスク用途には透明性義務のみを課している。国内では生成AI調達ガイドラインが官民の実験的利用を促しつつ、ハイリスク用途には厳格な審査とガバナンスを求めている。こうした差別化により、革新的サービス開発を阻害せずに社会的リスクを管理することが可能となる。企業側はAIポリシーや内部規程を整備し、ガイドラインと法制度に沿った自主管理体制を築くことが期待される。
3-4 国際協調と日本の役割
AIセーフティは国境を越えた問題であり、日本は広島AIプロセスやGPAIを通じて国際協調を主導する立場にある。人工知能基本計画は、日本が国際的なAIガバナンスを主導し、AIの信頼性向上と技術革新の好循環を実現する環境を構築すると宣言している。また、AISIの評価観点ガイドでは米国や英国、シンガポールの文献を参照して評価項目を策定しており、国内ガイドラインが国際的な議論と整合していることが確認できる。今後、AI事業者ガイドラインを世界に発信し、広島プロセスを通じてOECDやEU AI Actとの連携を強化することが重要になるだろう。
おわりに:セーフティとイノベーションの両輪を回すために
AI技術は社会課題解決や経済発展に大きな可能性をもたらす一方、偏見・差別の助長やプライバシー侵害、誤用による心理的損害など多様なリスクを抱えている。IPAが示すAIセーフティの定義と狭義/広義の分類は、技術的な安全対策と社会的なガバナンスの両方が不可欠であることを示している。国内ではAI事業者ガイドライン、生成AI調達ガイドライン、AISI評価観点ガイド、人工知能基本計画といった枠組みが整備されつつあり、国際的には広島プロセス、EU AI Act、NIST AI RMFなどがリスクベースアプローチに基づく規制と支援策を展開している。
今後は、これらのガイドラインと法制度を実際のビジネスや行政に定着させる運用能力が問われる。企業はAIリスク評価と緩和策を組織全体で継続的に実施し、透明性と説明可能性を確保した上でAI活用を進める必要がある。政府は公共部門での先進的な利用と評価を通じてユースケースを蓄積し、地方自治体や企業に共有する役割を果たすだろう。また、日本が国際的な議論をリードし、アジアや新興国との連携を拡大することで、世界全体のAIセーフティ水準向上に寄与することが期待される。AIセーフティとイノベーションの両輪を回すために、技術・法律・倫理の三位一体で継続的な対話と改善を重ねる姿勢が求められる。