AI新法の施行は、企業にAI活用とガバナンスの在り方を見直す新たな局面をもたらした。法的義務の明確化に加え、倫理・説明責任・透明性といったガバナンスの再構築が求められている。AIの利便性とリスクが交錯する中、企業はその活用方法と管理体制を根本から問い直す必要がある。制度対応に加え、組織としての姿勢や運用の実効性が問われる今、AIを活用する企業の責任と実務対応について、レオユナイテッド銀座法律事務所に伺った。
ソフトローから基本法へ
日本のAI法制の現在地
日本におけるAI関連の法整備は、これまで「ソフトロー」と呼ばれる、法律を厳格に定めないアプローチが中心であった。これは、成長著しいAI分野を法規制で縛りすぎないようにするという意図があったと考えられる。しかし、EUの「AI規制法」など、諸外国の動向も踏まえ、日本でもAIの基本原則を定める「基本法」を制定する運びとなった。
レオユナイテッド銀座法律事務所 弁護士 大木怜於奈氏は、AI新法について次のように解説する。「AI新法は、具体的な権利義務や罰則を定めたものではなく、活用事業者の責務を定める第7条を除き、あくまでも基本的な理念、国や政府の責任、施策を定める『基本法』という位置付けになります。そのため、AI新法だけでAIにまつわる問題が全て解決するわけではありません。結局、エンフォースメント(法執行)のレベルとしては、個別法によりAIにまつわる問題がそれぞれ解決されるという形になります。また、『AI事業者ガイドライン』をはじめとするソフトローアプローチも依然として重要となります」
AI技術の急速な発展に伴い、既存の法制度では対応しきれない新たな法的課題が次々と生じている。例えば、AIによる知的財産権侵害、個人情報の不適切な利用、AI生成物の責任帰属などだ。日本のAI新法は、こうした課題に対する国としての基本的な考え方や施策の方向性を示すものといえる。より具体的な規制や罰則は、民法、著作権法、個人情報保護法、不正競争防止法などの既存の個別法を適用、または改正することで対応が進められる。
企業に求められる
ガバナンスの構築対応
AI新法の施行は、企業に新たな具体的な義務を直接的に課すものではないが、同法施行以前にも、AI事業者ガイドラインなど関連する取り組みは進んでいる。特に、開発者や提供者だけでなく、利用者にもAIガバナンスを構築することが求められている。
AIリスクへの取り組み例
1. AIリスクへのガバナンス(倫理委員会の設置など)
2. AIリスクに関する社内規程、ガイドラインの策定
3. AIリスクに関する誓約、社内啓蒙・教育
4. AI人材の育成・確保、教育
5. AIリスクに関わるITツールやアプリケーションツール導入
6. AIリスクに関するモニタリング体制・検知体制
7. AIリスクに関するTPRM(開発委託ベンダーなど)
8. AIにまつわるインシデント対応体制
9. AIにまつわる不正対応体制
大木氏は、企業が講じるべき具体的な対策について「まず、AIを利用する体制が構築できているかどうかが問われます。例えば、契約管理や契約書のチェック業務にAIを導入している企業が増えていますが、AIに関するルールがないと、思わぬリスクにつながる可能性があります」と説明する。

弁護士
大木怜於奈 氏
企業が取り組むべきリスク管理の観点としては、AIの公平性、透明性、プライバシー保護が確保できているか、サイバーセキュリティ対策、人的リスクへの対応を意味するヒューマンリスクマネジメント、そして人権への配慮ができているかといった点が挙げられる。また、外部サービスの利用に伴うサードパーティーリスクの管理や、知的財産権の保護、AIに関する従業員教育も不可欠である。特に、AIの利便性は、内部不正による情報漏えいなど、意図しないインサイダーリスクを高める可能性がある。「意図しない情報漏えいは、AIの学習データを扱う開発者・提供者側だけでなく、利用者側でも起こりえます。例えば、自社の機密情報を安易に外部の生成AIツールに入力してしまい、それが意図せず外部に流出するようなケースです」(大木氏)
こうしたリスクを未然に防ぐためには、秘密保持契約の締結やアクセス権限の管理だけでなく、従業員に対するAI利用ガイドラインの周知徹底や教育啓蒙が不可欠である。不正競争防止法に基づく営業秘密の保護も重要であり、AI利用が絡むことでその管理はより複雑になる。企業は、AIリスクとインサイダーリスクを一体的に捉え、予防、検知、対応という三つのフェーズで包括的な体制を構築することが求められる。具体的には、社内規程の策定や教育の実施、アクセス権限管理、そしてインシデント発生時の迅速な対応体制などが必要となる。これらの取り組みは、IT部門と人事部門が連携し、複合的な観点から進めることが不可欠である。
AIが問う新たな経営課題
経済安全保障という視点
AI新法は今後も改正や発展の可能性を秘めている。現状は基本法という大枠を定めたに過ぎないが、今後はEUの法制のように、より踏み込んだ具体的な内容が盛り込まれる可能性も否定できない。日本がAI関連の法整備を進めるにつれ、企業への影響も大きくなると大木氏は指摘する。「AI新法をきっかけに、これまでAIに関するルールについて意識していなかった企業でも、その重要性に気付くきっかけとなるでしょう。AIの開発者や提供者が主体となって信頼性の高いサービスを提供し、利用者側もAI活用における責任を明確化する流れが強まるはずです」
このように、AI新法は企業にAIに関する意識変革を促す役割を果たす。この意識の高まりが、単なる法令遵守を超え、より広い視点でのリスク管理へとつながることが期待される。
AIがもたらすリスクは、従来の法務や情報管理の枠組みだけでは捉えきれないより大きな課題へと広がりを見せている。大木氏は、今後の注目すべきトレンドとして「経済安全保障とAI」を挙げる。「近年、経済安全保障の重要性が増しており、特に製造業にとって重要なテーマとなっています。これまで、営業秘密の管理や技術流出の防止は、不正競争防止法など既存の法律で対応してきました。しかし今後は、経済安全保障というより広いコンテクストの中で、AIのリスクを管理していくことが求められるでしょう」(大木氏)
経済安全保障は、地政学リスクや政治的リスク、国際関係といった典型的な要素以外にも、先端技術リスク、人的リスク、組織的リスク、サプライチェーンリスクなど、複眼的な観点からアプローチされなければならない。AIは、経済安全保障上の重要な要素として位置付けられている「破壊的な技術革新」の一つである。経済産業省が策定した「経済安全保障に関する産業・技術基盤強化アクションプラン」にも、AIが経済安全保障に不可欠な要素であることが明記されている。
企業がAIを活用する上で、情報漏えいや知的財産の管理は経済安全保障の観点からも重要性が増している。単に営業秘密を保護するだけでなく、自社の技術やノウハウが海外に流出するのを防ぐという、より大きな視点での取り組みが必要となっている。この流れは、現在は大企業が中心となっているが、今後はより幅広い企業に広がることが予想される。「AIに関連する経済安全保障の観点でのリスク管理が、不正競争防止法など既存の対策に加えて、次の重要な課題となるでしょう」と大木氏は話す。
企業はAIの利便性を享受しつつ、それに伴う新たなリスクに備える必要がある。AI新法という“ハブ”ができたことで、企業はAIに関する法的・倫理的リスクに対する意識を高め、より包括的なガバナンス体制を構築することが求められている。これは、単なる法令遵守にとどまらず、企業の競争力や社会からの信頼を確保するための重要な経営課題といえるだろう。
