解説:AI倫理・法律
2026.03.18
このページでは「AI倫理・法律・社会実装」(シラバス法律倫理分野 全18項目、技術分野35〜36)を解説します。近年出題比率が増えている重要分野です。
⚖️ AIに関する主要な法律
| 法律・制度 | ポイント |
| 個人情報保護法 | 個人を識別できる情報の取扱いを規制。仮名加工情報・匿名加工情報の区別が重要。AI学習データへの適用も注目。GDPRはEUの個人情報保護規則 |
| 著作権法 | AI生成物の著作権帰属が問題に。AI学習目的のデータ利用は一定条件下で認められる(著作権法30条の4) |
| 特許法 | AI発明の特許取得可能性、職務発明の扱いが重要。新規性・進歩性が審査基準 |
| 不正競争防止法 | 営業秘密・限定提供データの保護。AIが生成したデータの保護に関連 |
| 独占禁止法 | AIを使ったデータの寡占・競争阻害行為への規制 |
| AI開発受託契約 | 精度保証・NDA・PoC契約など。準委任契約と請負契約の違いが重要 |
🌍 国内外のAIガイドライン
| ガイドライン | 説明 |
| AIガバナンス | AIの開発・利用を適切に管理・監督する枠組み |
| 価値原則(AI原則) | 各国・企業が定めるAI開発・利用の基本原則。透明性・公平性・安全性など |
| ハードロー vs ソフトロー | 法的拘束力のある規制(ハード)と、自主的ガイドライン(ソフト)の対比 |
| リスクベースアプローチ | AIのリスクレベルに応じた規制を行う考え方。EUのAI Actが採用 |
| AIポリシー | 組織内のAI利用ルールを定めた文書 |
🔍 AI倫理の主要テーマ
| テーマ | 説明 | キーワード |
| 公平性 | AIの判断に差別・偏りが生じないようにする | アルゴリズムバイアス、サンプリングバイアス、センシティブ属性 |
| プライバシー | 個人データの収集・利用における権利保護 | プライバシー・バイ・デザイン、カメラ画像利活用ガイドブック |
| 透明性・説明可能性 | AIの判断根拠を人間が理解できるようにする | ブラックボックス、データの来歴、説明可能AI |
| 安全性・セキュリティ | AIへの攻撃や誤動作からの保護 | Adversarial Attack、データ汚染、モデル汚染 |
| 悪用 | AIの不正使用や有害コンテンツの生成 | ディープフェイク、フェイクニュース |
| 民主主義への影響 | AIによる情報操作・世論誘導のリスク | エコーチェンバー、フィルターバブル |
| 環境への影響 | 大規模モデルの学習に伴う電力消費・CO2排出 | 気候変動、モデルの電力消費 |
| 労働・雇用 | AIによる仕事の代替と新たな雇用創出のバランス | AIとの協働、スキルの喪失、労働力不足 |
| インクルージョン | 障害者・少数者への配慮、AIの恩恵を公平に享受する社会 | ダイバーシティ、軍事利用 |
🏭 AIの社会実装(項目35〜36)
| 用語 | 説明 |
| CRISP-DM | データ分析・AI開発の標準的なプロセスモデル。業務理解→データ理解→準備→モデリング→評価→展開 |
| MLOps | 機械学習モデルの開発・運用・監視を継続的に改善するDevOpsのAI版 |
| PoC(概念実証) | AIシステムを本格導入前に小規模で試験する段階 |
| アジャイル開発 | 短いサイクルで繰り返し改善する開発手法 |
| アノテーション | AIの学習データに正解ラベルを付与する作業 |
| データリーケージ | 学習データにテストデータの情報が混入し、評価が過大になる問題 |
📝 この分野の出題ポイント
- ✅ 個人情報保護法の基本(仮名加工・匿名加工・第三者提供・GDPR)を理解する
- ✅ 著作権法のAIへの適用(学習目的利用・AI生成物の扱い)を整理する
- ✅ AI倫理の主要テーマ(公平性・透明性・安全性・プライバシー)を覚える
- ✅ アルゴリズムバイアス・ディープフェイク・エコーチェンバーの意味を理解する
- ✅ CRISP-DM・MLOps・PoCなどAI開発プロセスの用語を覚える
⚖️ AIに関する主な法律・規制
AIの普及に伴い、法律や規制の整備が進んでいます。G検定では日本の法律だけでなく、国際的な動向も問われます。
| 法律・規制 | 概要 |
| 個人情報保護法 | 個人情報の適切な取扱いを定めた法律。AIが学習データとして個人情報を使う場合に適用 |
| 著作権法 | AIが生成したコンテンツや、学習データとして著作物を使う際の権利関係を規定 |
| 不正競争防止法 | 営業秘密の保護などを定めた法律。データの不正取得・利用に関わる |
| EU AI法 | EUが制定したAI規制法。リスクレベルに応じてAIシステムを分類・規制する |
| AI原則(OECD) | OECDが提唱するAI開発・利用の国際的な指針。透明性・公平性・説明責任などを定める |
🤝 AIガバナンスと責任あるAI
AIを社会に適切に導入・運用するための仕組みをAIガバナンスと呼びます。G検定では「責任あるAI(Responsible AI)」の考え方が頻出です。
- 公平性(Fairness):AIが性別・人種・年齢などで不当な差別をしないこと。学習データのバイアスに注意が必要
- 透明性(Transparency):AIの判断根拠を人間が理解できること。説明可能なAI(XAI)の研究が進む
- 説明責任(Accountability):AI利用者・開発者が判断結果に責任を持つこと
- プライバシー保護:個人データの収集・利用を最小限にし、適切に管理すること
- 安全性(Safety):AIが意図しない害を与えないよう設計・運用すること
✅ まとめ:試験対策のポイント
AI倫理・法律分野は近年の試験で比重が増えています。個人情報保護法・著作権法・OECD AI原則・AIガバナンス・バイアスといったキーワードを中心に、それぞれの概念と具体的な事例をセットで理解しておきましょう。
→ G検定の出題範囲一覧に戻る