「G検定、そろそろ受けたいけど、自分の実力ってどれくらいなんだろう?」
そんな方に向けて、本番形式の模擬テストを用意しました。全12問・制限時間15分で、AI・機械学習・ディープラーニングの総合力を一気にチェックできます。
この記事でできること
- 本番と同じ「時間制限あり・解答は最後」の形式で解く練習ができる
- 易・中・やや難のバランスで、自分の弱点分野が見える
- 解いたあとの解説で、間違えた理由まで確認できる
なお、まだ用語に不安がある方は、先に出題範囲や練習問題でウォーミングアップしておくとスムーズです。
→ G検定の出題範囲は?頻出分野・試験内容を初心者向けに解説
→ G検定の練習問題|初心者向けに頻出テーマを解説付きで出題
挑戦前に読んでほしいこと(制限時間・ルール)
- 制限時間:15分(1問あたり約75秒が目安)
- 解答は手元のメモ・紙・テキストエディタに番号だけ書き留めてください(例:1. B, 2. D, …)
- 分からなくても飛ばさず、当てずっぽうでも必ず1つ選ぶ(G検定本番も減点なしの選択式)
- すべて解き終えてから「解答一覧」と「解説」を確認する
- 1回目は時間を計って挑戦 → 2回目以降は解説を読みながらじっくり確認、がおすすめ
【易】問題1:強いAIと弱いAI
「弱いAI」の説明として最も適切なものはどれですか?
- 人間の知能を超える汎用的な知能を持つAI
- 特定のタスクに特化して問題解決を行うAI
- 自己意識や感情を持つAI
- 計算速度が遅く性能が低いAI
【易】問題2:機械学習の3分類
「教師なし学習」の応用例として最も適切なものはどれですか?
- スパムメールかどうかを自動判定する
- 顧客データをグループ(セグメント)に分ける
- 囲碁AIが対局を重ねて強くなる
- 文章からポジティブ・ネガティブを分類する
【易】問題3:エポックとバッチ
機械学習の「エポック(epoch)」の説明として正しいものはどれですか?
- 1つの学習サンプルを1回処理した単位
- 1つのミニバッチを処理した単位
- 訓練データ全体を1回学習し終えた単位
- テストデータで精度を評価した単位
【易】問題4:AIの代表的応用例
現在「ディープラーニングが主流の技術」として活用されている分野の組み合わせとして最も適切なものはどれですか?
- 画像認識・音声認識・機械翻訳
- 表計算・データベース管理・ファイル圧縮
- OS開発・ネットワーク設計・サーバー監視
- 電力供給の物理制御・配線設計
【中】問題5:活性化関数(ReLU)
ディープラーニングで広く使われる活性化関数「ReLU(Rectified Linear Unit)」の特徴として正しいものはどれですか?
- 出力が0〜1の範囲に収まる
- 入力が正ならそのまま出力し、負なら0を出力する
- 出力が-1〜1の範囲に収まる
- 出力を確率分布に変換する
【中】問題6:過学習への対策
過学習(オーバーフィッティング)を抑えるテクニックとして「適切でない」ものはどれですか?
- Dropout(ニューロンをランダムに無効化する)
- L2正則化(重みに罰則を加える)
- 学習データをさらに減らす
- データ拡張(画像の回転・反転などで水増し)
【中】問題7:CNN(畳み込みニューラルネットワーク)
CNNの「畳み込み層」の主な役割として最も適切なものはどれですか?
- 時系列データの時間依存関係を学習する
- 画像の局所的な特徴(エッジ・模様など)を抽出する
- 抽出された特徴から最終的な分類結果を決める
- 出力を確率として正規化する
【中】問題8:RNN/LSTMの用途
自然言語や音声などの時系列データを扱うのに適したニューラルネットワークはどれですか?
- CNN
- RNN(LSTMを含む)
- 決定木
- サポートベクターマシン(SVM)
【中】問題9:勾配消失問題
「勾配消失問題」の説明として最も適切なものはどれですか?
- 学習率が高すぎて損失が発散してしまう問題
- 層が深くなるほど誤差逆伝播で勾配が小さくなり、学習が進まなくなる問題
- データ量が少なく勾配自体が計算できない問題
- モデルが局所最適解から抜け出せなくなる問題
【やや難】問題10:転移学習
「転移学習(Transfer Learning)」の説明として最も適切なものはどれですか?
- 大量データを別コンピュータに移しながら学習する手法
- 事前学習済みモデルの知識を、別のタスクの学習に活用する手法
- 学習済みのモデルをクラウドに転送する手法
- 学習中に自動でデータ量を増やしていく手法
【やや難】問題11:GAN(敵対的生成ネットワーク)
GAN(敵対的生成ネットワーク)を構成する2つのネットワークの組み合わせとして正しいものはどれですか?
- エンコーダとデコーダ
- 生成器(Generator)と識別器(Discriminator)
- 入力層と出力層
- CNN と RNN
【やや難】問題12:Transformer と自己注意機構
Transformerアーキテクチャの中核をなす仕組みとして最も適切なものはどれですか?
- 畳み込み演算
- 再帰処理(Recurrence)
- 自己注意機構(Self-Attention)
- 遺伝的アルゴリズム
解答一覧
まず自分の解答と照らし合わせてみてください。正解数は次のセクションの「スコア目安」で自分の立ち位置を確認できます。
- 問題1:2
- 問題2:2
- 問題3:3
- 問題4:1
- 問題5:2
- 問題6:3
- 問題7:2
- 問題8:2
- 問題9:2
- 問題10:2
- 問題11:2
- 問題12:3
スコア目安
12問中いくつ正解できましたか?ざっくりの目安は以下です。
- 10問以上(80%以上):合格圏内
基礎・応用ともに押さえられています。あとは本番のペース配分と、苦手テーマの詰めだけ。直前期は出題範囲の見直しと暗記系(人物・年号・用語)に時間を使いましょう。 - 7〜9問(60〜79%):もう一歩
おおまかな理解はあるものの、細部であやふやな箇所が残っています。間違えた問題の解説を読み込み、関連テーマを出題範囲で再確認するのがおすすめです。 - 6問以下(〜59%):基礎から復習
用語や仕組みの理解にムラがある状態です。先に勉強法記事で学習の順番を整え、出題範囲と練習問題で土台を固めてから再挑戦しましょう。
解説(問題1〜12)
正解・不正解にかかわらず、ひととおり読むと理解が定着します。特に「間違えやすいポイント」は本番でも問われやすい部分です。
問題1:強いAIと弱いAI(正解:2)
「弱いAI」とは特定のタスクに特化して動くAIで、画像認識・音声認識・将棋AIなど、現在実用化されているAIはほぼすべてこちらです。一方「強いAI(AGI)」は人間のように幅広い領域で柔軟に考えられる汎用知能で、現時点では実現していません。
間違えやすいポイント:「弱い=性能が低い」ではありません。あくまで「汎用性のなさ」を指す言葉なので、選択肢4に引っかからないよう注意しましょう。
問題2:機械学習の3分類(正解:2)
教師なし学習は、正解ラベルを与えずにデータ自体の構造を見つける手法です。クラスタリング(K-meansなど)や次元削減(PCAなど)が代表で、マーケティングの顧客セグメント分けなどに使われます。
間違えやすいポイント:スパム判定・感情分析は「教師あり学習」、囲碁AIのような対戦学習は「強化学習」です。3つはセットで問われやすいので、具体例と一緒に整理しておきましょう。
問題3:エポックとバッチ(正解:3)
エポックは「訓練データ全体を1回学習し終えた単位」です。1エポックは複数のミニバッチ(イテレーション)から成り立ちます。学習曲線で「エポックごとの訓練損失・検証損失」をプロットするのが定番の可視化です。
間違えやすいポイント:「エポック数を増やせば必ず良くなる」わけではありません。多すぎると過学習を招くので、検証データで止めどきを決めるのが基本です(早期終了:Early Stopping)。
問題4:AIの代表的応用例(正解:1)
現在のAI/ディープラーニングの主戦場は、画像認識・音声認識・自然言語処理(翻訳や対話)の3つです。スマホのカメラ、音声アシスタント、翻訳アプリなど、身の回りに広く浸透しています。
間違えやすいポイント:「ITで使われている技術=AI」と混同しないこと。表計算・OS・ネットワーク設計は従来のソフトウェア工学の領域で、AIとは別物です。
問題5:活性化関数 ReLU(正解:2)
ReLUは f(x) = max(0, x) で定義され、入力が正ならそのまま、負なら0を出力します。シンプルな計算で勾配消失を起こしにくく、ディープラーニングの標準的な活性化関数として広く使われます。
間違えやすいポイント:選択肢1はシグモイド関数、3はtanh、4はソフトマックスの説明です。活性化関数は種類ごとに役割が異なるので、グラフの形と合わせて覚えるのがおすすめです。
問題6:過学習への対策(正解:3)
過学習は「訓練データに適合しすぎて未知データに弱くなる」状態です。代表的な対策はDropout、正則化(L1/L2)、データ拡張、早期終了など。学習データを減らすのは逆効果で、かえって過学習を招きます。
間違えやすいポイント:「適切でないものはどれか」という否定形の設問はG検定でもよく出ます。選択肢を1つずつ「これは有効か?」と検算する癖をつけましょう。
問題7:CNN(正解:2)
畳み込み層は、小さなフィルタ(カーネル)を画像上でスライドさせながら局所的な特徴(エッジ・角・テクスチャなど)を抽出します。層が深くなるほど抽象的な特徴を捉えるようになるのが特徴です。
間違えやすいポイント:選択肢1はRNN、3は全結合層、4はソフトマックスの役割です。CNN全体の中で「畳み込み層 → プーリング層 → 全結合層」という流れをイメージしておきましょう。
問題8:RNN/LSTMの用途(正解:2)
RNNは前の時刻の出力を次の入力に使う再帰構造を持ち、時間依存のあるデータ(言語、音声、株価など)に向きます。長期依存を扱うためにLSTMやGRUといった改良版が使われます。
間違えやすいポイント:近年は自然言語処理でTransformerが主流ですが、G検定ではRNN/LSTMも依然として頻出です。「時系列=RNN系統」「画像=CNN」とセットで覚えておくと選びやすくなります。
問題9:勾配消失問題(正解:2)
深いネットワークの誤差逆伝播で、出力層から入力層に向かうにつれて勾配が0に近づき、前段の重みが更新されなくなる現象です。シグモイド関数の多用で発生しやすく、対策として ReLU、残差接続(ResNet)、バッチ正規化などが使われます。
間違えやすいポイント:選択肢1は「勾配爆発」、4は「局所解問題」で、それぞれ別の現象です。用語の対比で問われやすいので、セットで整理しておきましょう。
問題10:転移学習(正解:2)
転移学習は、大規模データで事前学習したモデル(ImageNet、BERTなど)の「汎用的な特徴表現」を土台にして、手元の少量データで別タスクに再学習させる手法です。ゼロから学習するより少ないデータ・時間で高精度が出せるため、実務でも定番です。
間違えやすいポイント:「データを別のコンピュータに移す」「モデルをクラウドに転送」は言葉尻だけ似た誤答です。転移学習の本質は「知識(学習結果)の転用」であることを押さえておきましょう。
問題11:GAN(正解:2)
GANは「本物そっくりのデータを作ろうとする生成器(Generator)」と「本物か偽物かを見分ける識別器(Discriminator)」が互いに競い合うことで、生成品質を高めていく仕組みです。2014年にIan Goodfellowらが提案し、画像生成や超解像、Deepfakeなどで応用されています。
間違えやすいポイント:選択肢1の「エンコーダとデコーダ」はVAE(変分オートエンコーダ)の構成で、GANと混同しがちです。両方とも生成モデルですが、仕組みが違う点に注意しましょう。
問題12:Transformer と自己注意機構(正解:3)
Transformerは2017年の論文「Attention Is All You Need」で提案されたアーキテクチャで、系列内の各要素の関係性を一度にとらえる自己注意機構(Self-Attention)が中核です。並列計算しやすく大規模化に向いており、GPTやBERTなど現在の大規模言語モデルはすべてこのTransformerがベースです。
間違えやすいポイント:選択肢1はCNN、2はRNNの特徴です。Transformerの強みは「再帰を使わずに長距離の依存関係を扱える」点にあり、RNNの制約を乗り越えるために生まれた仕組みであることを押さえておきましょう。
次にやること
今回の結果に応じて、次のアクションを選んでみてください。
- 正解率が低かった(〜59%):先に学習の順番を整えるのがおすすめ。
→ G検定は独学で合格できる?未経験者向けに勉強法を解説 - 苦手テーマが見えた(60〜79%):出題範囲を見直して弱点を特定。
→ G検定の出題範囲は?頻出分野・試験内容を初心者向けに解説 - 基礎の確認をしたい:難易度を落として1問ずつじっくり。
→ G検定の練習問題|初心者向けに頻出テーマを解説付きで出題
📋 もう一度タイムを計って挑戦しよう
模擬テストは1回で終わりにせず、日を空けて2〜3回挑戦することで定着度が上がります。時間を計り、解説を見ずに解き切ることが実力養成のコツです。


