AIをめぐる制度とリスク管理の今(2025.06.30)

AIにまつわる背景

AI技術は急速に進化し、私たちの社会や仕事に深く浸透しています。

こうした技術の利活用が進む一方で、AIに関わるリスク管理・倫理・制度対応もまた、同時に進化し続けています。

日本でもAIに関する法律「人工知能関連技術の研究開発及び活用の推進に関する法律」(AI推進法)が公布されましたのでこのタイミングで少しAIに関する規制やフレームワークなどをまとめてみました。

本稿では、2025年6月時点での主要なガイドライン・規制体系や、実務者が押さえておくべきAIガバナンスとAIセキュリティの基本構造を整理します。(AIの発展は急速ですので、同様に規定類も早い動きがあると予測しています)

AIセキュリティとは?

AIセキュリティとは、AIシステムとその利用環境を様々な脅威から保護し、安全かつ倫理的に運用するための包括的な取り組みを指します。対象には、モデル自体・学習データ・API連携・出力内容など多岐にわたります。

各種ガイドラインと規制の構造

日本国内の主なガイドライン

AI事業者ガイドライン(経産省・総務省)

「人間中心」「透明性」「安全性」「アカウンタビリティ」「教育」「プライバシー保護」等を掲げる共通指針 リビングドキュメントとして継続的に更新中

生成AIリスク対策ガイドブック(α版)[デジタル庁]

公共分野における生成AIの4つの典型ユースケース(チャットボット、要約、検索補助、コード生成)を想定 → 統合予定の包括的ガイドラインの先行ドキュメント

AI推進法(2025年5月成立・6月公布)

基本理念に「人間の尊厳」「多様性と包摂性」「持続可能性」を明記 → 日本初のAI分野特化法として罰則なしの推進型アプローチを採用

国際的フレームワーク・規格

OECD AI原則(G20共通基盤)

包摂的な成長/人間中心の価値/透明性と説明責任/頑健性・セキュリティ・安全性/アカウンタビリティの5原則

ISO/IEC 42001(AI専用マネジメントシステム規格)

ISO/IEC 27001(ISMS)と類似の構造を持つAI専用のマネジメントシステム規格として、AIに固有のガバナンス要素を導入

NIST AI RMF(米国NISTによるAIリスク管理枠組み)

GOVERN / MAP / MEASURE / MANAGE の4層構造でAIリスクを整理

EU AI Act(世界初のAI法)

  • 許容不可(社会的スコアリングなど)
  • 高リスク(法執行・雇用など)
  • 限定リスク(チャットボット)
  • 最小リスク(ゲーム等)
  • GPAI規制(2025年8月から段階的に適用) - ChatGPTなどの汎用目的AI向け

セキュリティ関連知識体系

  • MITRE ATLAS→ MITRE ATT&CKのAI版、AIシステムへの攻撃手法やリスクパターンを体系化
  • OWASP Top 10 for LLMs→ 機密情報漏洩/プロンプトインジェクション/データポイズニング/偽情報生成/リソース枯渇など、LLM固有の脅威を整理

説明責任とガバナンスの中核:3つのキーワード

透明性(Transparency)

  • 目的・機能・制限事項・アルゴリズム概要などを開示
  • ステークホルダーごとに適切な情報提供が求められる

説明可能性(Explainability)

  • 技術的説明(内部ロジック)
  • 利用者向け説明(非技術者でも理解できる)
  • 法的説明(規制当局への適合)

説明責任(Accountability)

  • 組織としてのガバナンス体制確立
  • モニタリング・文書化・監査可能性の担保
  • 継続的なリスク管理と是正措置の運用

まとめ:戦略と制度の包括的な対策

AIガバナンスとAIセキュリティは、もはや「技術者だけの話」ではなく、経営・法務・現場実装すべてが関与すべきテーマです。

2025年6月時点で必要とされるのは:

  • 各種ガイドライン・法規制の意図を理解し、現場に落とし込む力
  • 技術的リスクと組織的リスクを統合的に捉える視点
  • 透明性・説明責任・ガバナンスを意識した設計と運用 それぞれの組織が、自らの立場から何をすべきかを再確認しAIの健全な利活用とリスクコントロールを両立する取り組みが求められています。

お問い合わせ

AI活用や制度対応に関するご相談・講演依頼など、内容に応じて丁寧に対応させていただきます。

まずはお気軽にご連絡ください。

お問い合わせはこちら