このページでは「ディープラーニングの概要」(シラバス項目11〜16)と「ディープラーニングの要素技術」(項目17〜25)を解説します。G検定で最も出題が多い分野の一つです。
🧠 11. ニューラルネットワークとディープラーニング
ニューラルネットワークは人間の神経回路を模したモデルです。入力層・隠れ層・出力層から構成され、多くの層を重ねたものを深層学習(ディープラーニング)と呼びます。
| 用語 | 説明 |
| 単純パーセプトロン | 入力の重み付き和を活性化関数に通す最も基本的なモデル |
| 多層パーセプトロン(MLP) | 隠れ層を複数持つニューラルネットワーク |
| GPU(グラフィック処理装置) | 並列計算が得意。ディープラーニングの学習を高速化する |
| TPU(テンソル処理装置) | Googleが開発したAI専用プロセッサ。さらに高速な学習が可能 |
⚡ 12〜16. 活性化関数・誤差関数・正則化・最適化
| カテゴリ | 用語 | 説明 |
| 活性化関数 | ReLU | 最も広く使われる活性化関数。0以下は0、正はそのまま出力 |
| 活性化関数 | シグモイド関数 | 0〜1の値を出力。二値分類の出力層に使用。勾配消失問題あり |
| 活性化関数 | ソフトマックス関数 | 多クラス分類の出力層に使用。合計が1になる確率分布を出力 |
| 活性化関数 | tanh関数 | -1〜1の値を出力。シグモイドより勾配消失が起きにくい |
| 誤差関数 | 交差エントロピー | 分類問題で使う損失関数。正解ラベルとの差を測る |
| 誤差関数 | 平均二乗誤差(MSE) | 回帰問題で使う損失関数 |
| 誤差関数 | カルバック・ライブラー(KL)情報量 | 2つの確率分布の差を測る指標 |
| 正則化 | L1正則化(ラッソ) | 不要な特徴量の重みを0にしてモデルを簡素化する |
| 正則化 | L2正則化(リッジ) | 重みを小さくして過学習を抑制する |
| 正則化 | ドロップアウト | 学習中にランダムにノードを無効化して過学習を防ぐ |
| 最適化 | 確率的勾配降下法(SGD) | ランダムに選んだデータで勾配を計算してパラメータを更新 |
| 最適化 | Adam | 現在最も広く使われる最適化アルゴリズム |
| 最適化 | ミニバッチ学習 | データを小さなバッチに分けて学習する手法 |
🏗️ 17〜25. ディープラーニングの要素技術
| 技術 | 説明 | キーワード |
| 畳み込み層(CNN) | 画像の局所的な特徴を抽出するフィルター処理 | カーネル、ストライド、パディング、特徴マップ |
| プーリング層 | 特徴マップを縮小し、位置の変化に頑健にする | 最大値プーリング、平均値プーリング、GAP |
| バッチ正規化 | 各層の出力を正規化して学習を安定化・高速化する | グループ正規化、レイヤー正規化 |
| スキップ結合(ResNet) | 層をスキップする接続で勾配消失問題を解決する | 残差接続、ResNet |
| RNN・LSTM・GRU | 系列データ(時系列・テキスト)を処理するネットワーク | BPTT、勾配消失問題、ゲート機構 |
| Attention・Transformer | 入力の重要な部分に注目する仕組み。LLMの基盤技術 | Self-Attention、Multi-Head Attention、位置エンコーディング |
| オートエンコーダ・VAE | データを圧縮(エンコード)し再構成(デコード)する | 潜在空間、VQ-VAE、変分オートエンコーダ |
| データ拡張 | 学習データを人工的に増やして汎化性能を高める手法 | Flip、CutMix、Mixup、RandAugment |
📝 この分野の出題ポイント
- ✅ 活性化関数の種類と特徴(ReLU・シグモイド・ソフトマックス)の違いを整理する
- ✅ 勾配消失問題の原因と対策(ReLU・ResNet・バッチ正規化)を理解する
- ✅ CNNの構造(畳み込み→プーリング→全結合)の流れを説明できるようにする
- ✅ TransformerとAttentionの仕組みを理解する(ChatGPTの基盤技術)
- ✅ L1・L2正則化とドロップアウトの違いを理解する
🏗️ 代表的なニューラルネットワークの種類
深層学習では用途に合わせてさまざまなネットワーク構造が開発されています。G検定ではそれぞれの特徴と代表的な応用先を理解しておくことが重要です。
| 種類 | 特徴・用途 |
| CNN(畳み込みニューラルネットワーク) | 画像認識に強い。畳み込み層でローカルな特徴を抽出する。顔認識・物体検出などに活用 |
| RNN(再帰型ニューラルネットワーク) | 時系列データや文章など順序のあるデータに強い。LSTM・GRUは勾配消失問題を改善した派生形 |
| Transformer | Self-Attentionを使った構造。BERTやGPTの基盤。並列処理が得意で大規模モデルに対応 |
| GAN(敵対的生成ネットワーク) | 生成器と識別器を競わせて学習する。画像生成・データ拡張などに使われる |
| オートエンコーダ | 入力データを圧縮・復元する構造。異常検知・次元削減に活用される |
⚠️ 深層学習の課題と対策
- 過学習:訓練データに過度に適合し汎化性能が落ちる問題。ドロップアウト・正則化・データ拡張で対策
- 勾配消失問題:層が深くなると誤差信号が伝わりにくくなる問題。ReLU関数・バッチ正規化・残差接続(ResNet)で改善
- 大量のデータと計算資源:深層学習は大量のラベル付きデータとGPUなどの計算資源が必要
- ブラックボックス問題:なぜその判断をしたか説明が難しい。XAI(説明可能なAI)が研究されている
✅ まとめ:試験対策のポイント
深層学習分野ではCNN・RNN・LSTM・Transformer・GAN・過学習・ドロップアウト・バッチ正規化が頻出です。各ネットワークの構造の特徴と「どんなデータ・タスクに向いているか」を紐付けて覚えましょう。
