解説:機械学習

このページでは、G検定の「機械学習の概要」分野(シラバス項目7〜10)を解説します。教師あり学習・教師なし学習・強化学習の3種類と、モデルの評価方法を学びましょう。

🎓 7. 教師あり学習(Supervised Learning)

教師あり学習とは、「入力データ」と「正解ラベル(答え)」のペアを大量に学習し、新しいデータに対して予測を行う手法です。

アルゴリズム 説明 用途
線形回帰 / 単回帰分析 連続値を予測する最も基本的な手法 価格予測、売上予測
ロジスティック回帰 2クラスの分類問題に使う確率モデル スパム判定、病気診断
決定木 条件分岐でデータを分類。解釈しやすい 顧客分析、信用スコア
ランダムフォレスト 複数の決定木を組み合わせたアンサンブル学習 異常検知、画像分類
SVM(サポートベクターマシン) データ間のマージンを最大化して分類する テキスト分類、顔認識
勾配ブースティング 弱分類器を順番に学習して精度を高める手法 Kaggleなどのコンペで人気
アンサンブル学習 複数のモデルを組み合わせて精度を向上させる手法の総称 バギング・ブースティングなど

🔎 8. 教師なし学習(Unsupervised Learning)

教師なし学習とは、正解ラベルなしでデータのパターンや構造を自動的に発見する手法です。

アルゴリズム 説明
k-means法 データをk個のクラスターに分類する代表的なクラスタリング手法
主成分分析(PCA) 高次元データを低次元に圧縮して可視化・分析しやすくする次元削減手法
t-SNE 高次元データを2次元・3次元に可視化するための次元削減手法
LDA(潜在的ディリクレ配分法) テキストからトピックを自動抽出するトピックモデル
SVD(特異値分解) 行列を分解して隠れた構造を発見する手法。レコメンドシステムに活用
デンドログラム 階層型クラスタリングの結果を樹形図で表現したもの

🎮 9. 強化学習(Reinforcement Learning)

強化学習とは、エージェントが環境と相互作用しながら「報酬を最大化」するように行動を学習する手法です。AlphaGoやゲームAIに使われています。

用語 説明
エージェント 環境の中で行動する学習主体
環境・状態・行動・報酬 強化学習の基本要素。エージェントは状態を観察し、行動を選び、報酬を得る
Q学習 行動価値関数(Q値)を学習する代表的な強化学習アルゴリズム
SARSA Q学習に似た手法。実際に選んだ次の行動のQ値を使って更新する
REINFORCE 方策勾配法の基本的なアルゴリズム
Actor-Critic 方策(Actor)と価値推定(Critic)を組み合わせた手法
UCB(上信頼限界) 探索と活用のバランスを取るバンディット問題の手法
マルコフ決定過程(MDP) 強化学習の数学的な枠組み。現在の状態のみで次の状態が決まる

📊 10. モデルの選択・評価

機械学習モデルを正しく評価することは非常に重要です。学習データで高い精度が出ても、未知のデータで失敗する「過学習(Overfitting)」が起きる可能性があります。

評価指標 説明
k-分割交差検証 データをk分割して学習・検証を繰り返す。過学習を防ぐための評価手法
RMSE(平均二乗平方根誤差) 回帰モデルの予測誤差を測る指標。値が小さいほど良い
MAE(平均絶対誤差) 予測値と実際の値の差の平均。外れ値の影響を受けにくい
精度(Accuracy) 全予測のうち正解した割合。クラス不均衡には注意が必要
適合率(Precision) 「陽性と予測したもの」のうち実際に陽性だった割合
再現率(Recall) 「実際の陽性」のうち陽性と予測できた割合
F値(F1スコア) 適合率と再現率の調和平均。バランスを見る指標
AUC・ROC曲線 分類モデルの性能を可視化・定量化する指標。1に近いほど優秀
真陽性・真陰性・偽陽性・偽陰性 混同行列の4要素。全評価指標の基礎になる
オッカムの剃刀 同じ精度なら単純なモデルを選ぶべきという原則
AIC・BIC モデルの複雑さと精度のバランスを評価する情報量基準

📝 この分野の出題ポイント

  • ✅ 教師あり・なし・強化学習の違いと代表的アルゴリズムを答えられるようにする
  • ✅ 過学習・未学習の意味と対策(正則化・ドロップアウトなど)を理解する
  • ✅ 混同行列と各評価指標(精度・適合率・再現率・F値)の計算ができるようにする
  • ✅ k-means法・PCAなど教師なし学習の代表手法の特徴を覚える
  • ✅ 強化学習の基本用語(エージェント・報酬・Q値)を整理する
タイトルとURLをコピーしました