生成AI規制・AI法とは?EU AI法・日本の法整備・企業の対応ポイントを解説
ChatGPTに代表される生成AIの急速な普及を受け、各国政府はAIに関する法規制やガイドラインの整備を加速させています。2024年にEUが世界初の包括的AI規制法「EU AI法(EU AI Act)」を成立させ、2025年から段階的に施行が始まりました。日本でも2025年6月に「AI推進法(人工知能関連技術の研究開発及び活用の推進に関する法律)」が公布・全面施行されています。
本記事では、EU AI法の概要と適用スケジュール、日本のAI法整備の現状、そして企業が今から取り組むべき具体的な対応ポイントをわかりやすく解説します。
目次
EU AI法(EU AI Act)とは?
EU AI法は、2024年5月にEU理事会で採択され、2024年8月1日に発効した世界初の包括的なAI規制法です。正式名称は「Regulation on Artificial Intelligence(AI規制法)」であり、EU域内で利用されるAIシステム全般を対象とした横断的な規制枠組みです。
EU AI法の最大の特徴は「リスクベースアプローチ」を採用している点です。AIシステムが人々の権利や安全に与えるリスクの大きさに応じて、規制の厳しさを4段階に分類しています。規制の対象はEU域内の事業者だけでなく、EU市場にAIシステムを提供する域外企業(日本企業を含む)にも適用される「域外適用」があります。
違反した場合の制裁は非常に厳しく、内容に応じて750万ユーロから3,500万ユーロ、または全世界年間売上高の一定割合(最大7%)の制裁金が課される可能性があります。
EU AI法のリスク分類と規制内容
EU AI法は、AIシステムを以下の4つのリスクカテゴリに分類しています。
1. 受け入れられないリスク(禁止)
人の基本的権利を著しく侵害する可能性があるとして、完全に禁止されるAIの利用行為です。2025年2月2日から適用が開始されました。
- 人の潜在意識を操作する認知的行動操作システム
- 脆弱なグループ(子供・高齢者等)を悪用するシステム
- 公的機関による社会的スコアリング(信用スコア等)
- リアルタイムの遠隔生体認証(公共空間での顔認識等、原則禁止)
2. 高リスク(厳格な規制)
重要インフラ、教育、雇用、医療、司法など、人の権利や安全に大きな影響を与える分野のAIシステムです。使用前の適合性評価、リスク管理システムの整備、高品質なデータ利用、透明性確保などが義務付けられます。
- 重要インフラの管理・運営
- 採用・人事管理システム
- 信用スコアリング・保険引受
- 医療診断支援システム
- 司法・法執行への利用
3. 限定リスク(透明性義務)
チャットボットやディープフェイク生成など、利用者が相手をAIと認識できない可能性があるシステムが対象です。AIであることを明示するなどの透明性確保が義務となります。
4. 最小リスク(規制対象外)
スパムフィルターやAIを活用したゲームなど、リスクが低いシステムは規制の対象外です。ただし任意の行動規範に沿った対応が推奨されます。
EU AI法の施行スケジュール
EU AI法は段階的に施行が進んでいます。主要なマイルストーンは以下の通りです。
| 時期 | 内容 |
|---|---|
| 2024年8月1日 | EU AI法 発効 |
| 2025年2月2日 | 禁止AIの利用行為に関する規制 適用開始 |
| 2025年8月2日 | 汎用AIモデル(GPAI)に関する規制 適用開始 |
| 2026年8月2日 | 高リスクAIシステム等、大部分の規定 適用開始 |
| 2027年8月2日 | 2025年8月以前から市場に存在するAIシステムへの適用猶予期限 |
2026年8月からはEU委員会の執行権限が本格的に発動し、違反に対する制裁金の適用も始まります。日本企業がEU向けにAIシステムやサービスを提供している場合は、遅くとも2026年8月までに対応を完了させる必要があります。
汎用AIモデル(GPAI)への義務
生成AIの中核となる大規模言語モデル(LLM)等は「汎用AIモデル(GPAI: General Purpose AI Model)」として2025年8月2日から規制対象となっています。GPAIプロバイダーには以下の義務が課されます。
- 技術文書の作成・維持:モデルの能力・限界・訓練内容に関する詳細な技術文書の整備
- 著作権対応方針:EU著作権法・知的財産権に関するコンプライアンスポリシーの策定
- 訓練データサマリーの開示:モデル学習に使用したコンテンツの概要の公開
- システムリスクモデルへの追加義務:学習規模が10²⁵ FLOPs以上の高インパクトモデル(ChatGPT等)は、安全評価実施や重大事故の報告義務が加わる
欧州委員会は2025年7月、GPAIプロバイダー向けのガイドラインと「行動規範(Code of Practice)」を公表しており、これらへの準拠が実務上の対応方針となっています。
日本のAI法整備:AI推進法とガイドライン
AI推進法(2025年全面施行)
日本では2025年6月4日に「人工知能関連技術の研究開発及び活用の推進に関する法律(AI推進法)」が公布・一部施行され、同年9月1日にAI戦略本部の設置規定を含めて全面施行されました。
AI推進法は基本法的な性格を持つ法律であり、EUのような直接的な罰則規定はありません。企業に対して直接的な義務を課すというよりも、AIの研究開発・利活用を社会全体で推進するための基本理念・政策方針を定めるものです。具体的な規制ルールは今後策定される政省令やガイドラインによって具体化されていく予定です。
AI事業者ガイドライン(総務省・経済産業省)
2025年3月に総務省・経済産業省は「AI事業者ガイドライン(第1.1版)」を公表しました。これは従来別々に存在していた「AI開発ガイドライン」「AI利活用ガイドライン」「AIガバナンスガイドライン」の3つを統合・体系化したものです。
ガイドラインはリスクベースアプローチを採用しており、AIのリスクの大きさに応じて対策の程度を変えることを推奨しています。2026年2月にはAIエージェントやフィジカルAIなどの最新技術動向を踏まえた更新案も公表されています。
著作権・個人情報保護
生成AIに特有の課題として、著作権法・個人情報保護法への対応も重要です。文化庁は生成AIと著作権の関係について継続的に指針を更新しており、生成AIの学習・出力に関する著作権上の考え方の明確化が進んでいます。個人情報保護委員会もAIによる個人データの利用について留意点を公表しています。
EU AI法と日本のアプローチの違い
| 比較項目 | EU AI法 | 日本(AI推進法) |
|---|---|---|
| 性格 | 規制法(ハードロー) | 基本法・推進法(ソフトロー的) |
| 罰則 | あり(最大3,500万ユーロ等) | なし(努力義務・指針) |
| アプローチ | リスクベース・義務的対応 | 推進優先・自主的ガバナンス |
| 対象 | EU市場に関わる全事業者(域外適用あり) | 国内のAI研究開発・利活用事業者 |
| 施行状況 | 2024年発効・段階的施行中 | 2025年全面施行 |
日本は「イノベーション推進」を優先したアプローチを取っており、EUのような厳格な事前規制ではなく、ガイドラインと自主的なガバナンスによって適切なAI利用を促す方針です。ただし、EU市場向けにサービス・製品を提供する日本企業にはEU AI法が直接適用されるため、グローバルに事業を展開する企業は双方への対応が必要です。
米国・英国・中国の規制動向
米国
米国は2023年10月にバイデン政権がAI安全基準に関する大統領令を発令しましたが、2025年以降の政権交代により規制強化の方向性は変化しています。連邦レベルの包括的AI規制法は現時点では成立しておらず、各省庁・州レベルでの対応が進んでいる状況です。カリフォルニア州など一部州では独自のAI規制法が検討・制定されています。
英国
英国はEUとは異なり、既存の規制機関(競争・市場庁、情報コミッショナー室等)がそれぞれの権限範囲でAIを監督する「原則ベース・分野横断型」のアプローチを採用しています。AIセーフティ研究所(AISI)を設立し、先進的AIの安全性評価を進めています。
中国
中国は生成AIサービスを対象とした「生成式人工智能服务管理暂行办法(生成AI管理暫定弁法)」を2023年8月から施行しており、コンテンツの安全性審査・ウォーターマーク付加・個人情報保護などの義務を課しています。
企業の対応ポイント
EU AI法・日本のAI推進法・各国規制の動向を踏まえ、企業が今すぐ取り組むべき対応ポイントを解説します。
1. AIインベントリの作成(AI利用状況の棚卸し)
自社でどのようなAIシステムを開発・利用しているかを洗い出し、EU AI法のリスク分類(禁止・高リスク・限定リスク・最小リスク)に当てはめる作業が第一歩です。EU向けサービスを提供している場合は特に優先度を高める必要があります。
2. AIガバナンス体制の整備
AI利用に関する社内ポリシー・倫理規程の策定、リスク管理プロセスの構築が不可欠です。AI戦略本部やAI推進委員会のような専任組織を設け、責任者を明確にすることが重要です。総務省・経産省のAI事業者ガイドラインは国内企業向けの実践的なフレームワークとして参考になります。
3. リスクアセスメントの実施
高リスクAIに分類されるシステムを開発・利用する場合、適合性評価やリスクアセスメントの実施が必要です。リスクの高い用途(採用・信用評価・医療支援等)では特に慎重な対応が求められます。
4. 透明性・説明責任の確保
AIシステムを利用したサービスでは、ユーザーに対してAIを使用していることを明示することが基本です。チャットボットやAI生成コンテンツには「AI生成」である旨を表示する透明性確保が、EU AI法でも日本のガイドラインでも求められています。
5. 著作権・個人情報対応
生成AIを業務に活用する際は、著作権侵害リスク(AIの学習データ・出力結果の著作権)と個人情報保護法上のリスク(個人情報を含むプロンプト入力等)を事前に整理しておく必要があります。社内向けの利用ルールを整備し、従業員教育を行うことが重要です。
6. サプライチェーン(ベンダー)管理
OpenAIやGoogleなど外部AIサービスのAPIを利用している企業は、そのサービスがEU AI法の要件を満たしているか確認することも重要です。EU AI法はAIシステムの「デプロイヤー(利用者)」にも一定の義務を課しているため、利用するAIサービスのコンプライアンス状況を把握しておく必要があります。
7. 継続的なモニタリング
AI規制は急速に変化しており、EU AI法の施行ガイドライン更新や日本のAI推進法に基づく詳細規定の策定など、今後も新たな動向が続きます。法務・IT・事業部門が連携して定期的に規制動向をモニタリングする体制を整えることが不可欠です。
生成AI活用・AI規制対応のご相談はRenueへ
EU AI法・日本のAI推進法への対応や、生成AIの業務活用に関するご支援を行っています。AIガバナンス体制の整備から、社内AI利用ルールの策定まで、貴社の状況に合わせてサポートします。
無料相談・お問い合わせはこちらよくある質問(FAQ)
Q1. EU AI法は日本企業にも適用されますか?
はい、EU AI法には「域外適用」があります。日本企業であっても、EU市場向けにAIシステムを提供する場合や、EU域内のユーザーに対してAIを活用したサービスを提供する場合には、EU AI法の規制対象となります。グローバルにサービスを展開している企業は、EU AI法への対応が必要かどうかを早急に確認することが重要です。
Q2. EU AI法に違反した場合、どのような罰則がありますか?
違反の内容によって制裁金の額が異なります。禁止行為(ソーシャルスコアリング等)への違反は最大3,500万ユーロまたは全世界年間売上高の7%、高リスクAI義務への違反は最大1,500万ユーロまたは売上高の3%、虚偽情報提供は最大750万ユーロまたは売上高の1%の制裁金が課されます。EU委員会の執行権限は2026年8月から本格稼働します。
Q3. 日本のAI推進法と、EUのAI法は何が違いますか?
EU AI法は厳格な「規制法(ハードロー)」であり、義務違反には高額の制裁金が科されます。一方、日本のAI推進法はAIの研究開発・利活用を推進するための「基本法」的な性格を持ち、企業への直接的な罰則規定はありません。日本は自主的なガバナンスとガイドラインを通じた対応を基本としており、イノベーション推進と安全性確保のバランスを重視したアプローチです。
Q4. 生成AIを社内業務に使う場合、どのような点に注意すべきですか?
主に4つの点に注意が必要です。①個人情報・機密情報をAIに入力しないルール作り、②AIが生成したコンテンツの著作権リスク(出力を無断でそのまま使用しない)、③AI出力の事実確認(ハルシネーション対策)、④業務利用に適したAIツールの選定と利用規約の確認です。社内向けの生成AI利用ガイドラインを整備し、従業員に周知することが重要です。
Q5. 汎用AIモデル(GPAI)の規制は、OpenAIやGoogleのAPIを利用する企業にも影響しますか?
GPAI規制の主な義務はOpenAIやGoogleなどのAIモデルプロバイダー(開発者)に課されます。ただし、これらのサービスをAPIで利用してAIシステムを構築・提供する企業(デプロイヤー)も、システムのリスク分類に応じた義務(透明性確保・リスク管理等)を負います。利用するAIサービスがEU AI法の要件を満たしているか確認した上で、自社サービスに組み込む際の追加対応が必要かどうかを検討してください。
Q6. AI規制対応で、まず最初に何をすればよいですか?
まず「自社のAI利用状況の棚卸し(AIインベントリ作成)」から始めることをおすすめします。社内外でどのようなAIシステムを開発・利用しているかをリスト化し、EU AI法のリスク分類に照らし合わせます。次に、法務・情報システム・事業部門が連携してAIガバナンスの担当体制を構築し、社内AI利用ポリシーを策定する流れが一般的な進め方です。
