META


2020年1月7日火曜日

G検定2019#3自己採点191−200

新年明けましておめでとうございます。ついに年を越してしまいましたが、メゲずに続けていきます。前回に引き続き、2019年11月9日に行われたJDLA ジェネラリスト検定の自己採点をしていきます。
目次
問191 問192 問193 問194 問195 問196 問197 問198 問199 問200
◀︎前10問 ■全問一覧 次10問▶︎
191問
ディープラーニングの画像認識に関する研究分野において、2014年に提唱された敵対的生成ネットワークの筆頭著者は誰か。最も適切な選択肢を1つ選べ。
A) ヨシュア=ベンジオ
B) イアン=グッドフェロー
C) ジェフリー=ヒントン
D) アンドリュー=エン(Ng)


↓191問の予想解答
▲目次■一覧
192問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。
ディープラーニングの飛躍的な活躍を支える要素として、それに要求される多量の計算処理を可能にするハードウェアの進化も見逃してはならない。現在ディープラーニングを行うにあたっては、元来グラフィックス計算用のプロセッサとして開発された(ア)が転用され、並列計算を可能として従来型のプロセッサよりも非常に高い処理性能を誇っている。

A) GUI
B) CPU
C) CUI
D) GPU


↓192問の予想解答
▲目次■一覧
193問
学習率(learning rate)に関する説明として、最も不適切な選択肢を1つ選べ。
A) ニューラルネットワークは次元が大きくなっても鞍点に陥りにくい
B) 学習率の値を低くすると収束するための時間が延びる
C) モーメンタムという手法は物理でいうところの慣性の考え方が含まれている
D) 学習率の値を大きく設定する事で学習が早く進む


↓193問の予想解答
▲目次■一覧
194問
GoogleNet に関する説明として、最も適切な選択肢を1つ選べ。
A) インセプションモジュールから構成されるネットワークモデルである
B) 福島邦彦が作ったモデルである
C) スキップコネクション(Skip connection)と呼ばれる層を飛び越えた結合を行っている
D) 大きなサイズの畳み込みフィルタを差し込む工夫がされた


↓194問の予想解答
▲目次■一覧
195問
シュミットフーバーらによって提案された LSTM (Long Short-Term Memory) で1つの基本ユニットに含まれるゲート数として最も適切な選択肢を1つ選べ。ただし、オリジナルの LSTM 論文 (1997年) ではなく (2000年以降 Gers. Schmithuber and Cummins. Neural Computation 12, 2451-2471, 2000) の LSTM モデルとする。
A) 1
B) 2
C) 3
D) 4


↓195問の予想解答
▲目次■一覧
196問
画像処理に関連する技術に関する説明として、最も適切な選択肢を1つ選べ。
A) 一般に畳み込みニューラルネットワーク(CNN)を利用したセグメンテーションは畳み込みを用いるため、出力される画像は元の画像よりも極めて高い解像度になる
B) セマンティックセグメンテーションとは物体の輪郭を切り分ける技術であり、物体が何であるかまでは推定しない
C) 完全畳み込みネットワーク(FCN)はすべての層が畳み込み層なので、構成が複雑でなく予測計算の時間もかからないが、入力する画像のサイズが非常に小さくなくてはならないという制限がある
D) 他の選択肢いずれも適切ではない


↓196問の予想解答
▲目次■一覧
197問
以下はバイト単位で表現したデータの大きさである小さい順に単位を並べたものとして、最もりな選択を1つ選べ。
A) 1PB(ペタバイト), 1EB(エクサバイト), 1YB(ヨタバイト), 1ZB(ゼッタバイト)
B) 1EB(エクサバイト), 1PB(ペタバイト), 1ZB(ゼッタバイト), 1YB(ヨタバイト)
C) 1PB(ペタバイト), 1EB(エクサバイト), 1ZB(ゼッタバイト), 1YB(ヨタバイト)
D) 1EB(エクサバイト), 1PB(ペタバイト), 1YB(ヨタバイト), 1ZB(ゼッタバイト)


↓197問の予想解答
▲目次■一覧
198問
近年、強化学習にディープラーニングを取り入れる動きがあり、ロボティクスやファイナンス、広告配信など、産業への応用も進んでいる強化学習の動向に関する説明として、最も適切な選択肢を1つ選べ。
A) 強化学習によってシミュレーション上で歩行などの運動の学習を行う事例はいまだ存在しない
B) 非営利団体OpenAIは強化学習用プラットフォーム「OpenAlGym」をオープンソースで公開している
C) AlphaGoZeroは過去の棋譜を学習することにより、性能を向上させた
D) 認知発達ロボティクスという分野で、人間の子供のように学習を行うAIが実現している


↓198問の予想解答
▲目次■一覧
199問
以下の文章を読み、空欄(ア)に最もよく当てはまる選択肢を1つ選べ。ロボティクス分野でも、ディープラーニングの応用は盛んである。例えば、ロボットに適切な動作を覚えさせるのに、報酬を最大化するような行動の系列を学習する(ア)が使われることがある。また、各種センサから得られた(イ)な情報に対してもディープラーニングが活用される場合がある。さらに、ロボットの一連の動作を1つのディープニューラルネットワーク(DNN)によって実現する学習方法を(ウ)と呼ぶ。
A) 一気通貫(end-to-end)学習
B) 教師あり(supervised)学習
C) 動作(rote)学習
D) 適応的(adaptive)学習
E) 深層強化(deep reinforcement)学習
F) 表現(representation)学習


↓199問の予想解答
▲目次■一覧
200問
以下の文章を読み、空欄(イ)に最もよく当てはまる選択肢を1つ選べ。
ロボティクス分野でも、ディープラーニングの応用は盛んである。例えば、ロボットに適切な動作を覚えさせるのに、報酬を最大化するような行動の系列を学習する(ア)が使われることがある。また、各種センサから得られた(イ)な情報に対してもディープラーニングが活用される場合がある。さらに、ロボットの一連の動作を1つのディープニューラルネットワーク(DNN)によって実現する学習方法を(ウ)と呼ぶ。

A) マルチタスク
B) マルチラベル
C) マルチレイヤー
D) マルチモーダル


↓200問の予想解答
▲目次■一覧

191問の予想解答
B) イアン=グッドフェロー
根拠:XI.6-10、X.128
↑191問
▲目次■一覧
192問の予想解答
D) GPU
根拠:T.128〜130
↑192問
▲目次■一覧
193問の予想解答
A) ニューラルネットワークは次元が大きくなっても鞍点に陥りにくい
根拠:C)が適切であることはT.148にあるが、それ以外は、公式テキスト問題集からは判然としません。Wikipedia-確率的勾配降下法の以下の記載からB)、D)が適切なことがわかりました。
学習率を大きくしすぎると発散し、小さくしすぎると収束まで遅くなる。
A)を裏付ける記載が公式テキスト問題集AI白書2019、Wikipedia周辺からはあまり見つかりませんでしたが、この論文の以下の行からこれで正解だろうと思います。
鞍点付近では勾配が小さくなるため,勾配法は鞍点にとらわれやすい.ニューラルネットのモデルはときに1億次元という高次元空間になり,停留点のほとんどは鞍点と予想されるため,最適化の大きな障害となる.

↑193問
▲目次■一覧
194問の予想解答
A) インセプションモジュールから構成されるネットワークモデルである
根拠:T.163
↑194問
▲目次■一覧
195問の予想解答
C) 3
根拠:T.170で学んだLSTMが本文の言う「 (2000年以降 Gers. Schmithuber and Cummins. Neural C omputation 12, 2451-2471, 2000) の LSTM モデル」に当たるのかどうかが問題ですが、必ずしも判然としません。そこでWikipedia-長・短期記憶に当たってみたところ以下の記載が見つかりました。つまり、初期の「入力ゲート」「出力ゲート」に「忘却ゲート」を追加した3ゲートのものが1999年版であり、そこへpeepholeを追加したもの(ゲートの増減は無し)が2000年版と言えそうです。
LSTMは1997年にゼップ・ホッフライターとユルゲン・シュミットフーバーによって提唱された。Constant Error Carousel(定誤差カルーセル、CEC)ユニットの導入によって、LSTMは勾配爆発および消失問題を解決しようとする。LSTMブロックの最初の型はセル、入力ゲート、および出力ゲートを含んでいた
1999年、フェリックス・ゲルスと彼のアドバイザーのユルゲン・シュミットフーバーとFred CumminsはLSTMアーキテクチャへ忘却ゲート(「保持ゲート」とも)を導入した。これはLSTMが自身の状態をリセットすることを可能にする。2000年、 ゲルス、シュミットフーバー、CumminsはLSTMアーキテクチャへ覗き穴(peehole)結合(セルからゲートへの結合)を追加した。加えて、出力活性化関数は削除された。
また、このスライドでも確認が取れます。つまり上記Wikipediaによれば英語名は「Felix A. Gers; Jürgen Schmidhuber; Fred Cummins (2000). “Learning to Forget: Continual Prediction with LSTM”.」とのことなので、このスライドの右図で間違いないと思います。
↑195問
▲目次■一覧
196問の予想解答
D) 他の選択肢いずれも適切ではない
根拠:A)→T.194によれば、畳み込み演算によって画像サイズは小さく(粗く)なる、すなわち解像度は低くなりそうなので✕。B)→T.195によれば、セマンティックセグメンテーションはカテゴリーも求めるので✕。C)→T.164によれば、入力画像を非常に小さく制限するというより、入力画像の画素数に応じた出力層が必要という文脈なので✕と判断し、D)と予想しました。
↑196問
▲目次■一覧
197問の予想解答
C) 1PB(ペタバイト), 1EB(エクサバイト), 1ZB(ゼッタバイト), 1YB(ヨタバイト)
根拠:AI白書2019Kindleの位置No.1863)にこうありました。
1 GB( ギガ バイト)= \( 10^9 \) B, 1 TB( テラ バイト)= \( 10^{12} \) B, 1 PB( ペタバイト) = \( 10^{15} \) B, 1 EB( エクサバイト) = \( 10^{18} \) B, 1 ZB( ゼッタバイト) = \( 10^{21} \) B, 1 YB( ヨタバイト) = \( 10^{24} \) B.
またWikipedia−ヨタでも確認できます。
接 頭 辞 :記号: \( 10^n \):解答順
ヨタ (yotta):Y: \( 10^{24} \) :4
ゼタ (zetta):Z: \( 10^{21} \) :3
エクサ( exa ):E: \( 10^{18} \) :2
ペタ (peta ):P: \( 10^{15} \) :1
テラ (tera ):T: \( 10^{12} \)
ギガ (giga ):G: \( 10^9 \)
メガ (mega ):M: \( 10^6 \)
キロ (kilo ):k: \( 10^3 \)

↑197問
▲目次■一覧
198問の予想解答
B) 非営利団体 OpenAI は強化学習用プラットフォーム「OpenAlGym」をオープンソースで公開している
根拠:Wikipedia-OpenAIなどで確認できる。OpenAIのコンセプトからしてOSSなことは自明だが、例えば脚注のリンク先であるWIREDの記事でOpenAI Gymがオープンソースであることが確認できる。
なお、D)は、フレーム問題によって否定できると思うが、例えば石黒先生の以下のような発言からも確認ができます。
一般の人たちは、小さい子供がどんどんいろいろなものを学習して、学んでいくみたいなものを知能と呼んでいる。ほとんどの場合。だけど僕らはそこらへんを研究していないし、一番できないのがそこなのです。そしてそこらへんは実用化とはかなり遠い話で、認知ロボティクスとか認知発達ロボティクスと言っているやつなんですが、一般の人のイメージからすると、まだかなりローレベルな研究しかされていない。知能と言われるものとは程遠くて、たとえば、赤ちゃんがやっと歩き出しましたとか言葉で単語をやっと使いだしましたみたいなレベルなのです
↑198問
▲目次■一覧
199問の予想解答
E) 深層強化(deep reinforcement)学習
根拠:T.174〜176
↑199問
▲目次■一覧
200問の予想解答
D) マルチモーダル
根拠:X.140、XI.7-6
↑200問
▲目次■一覧
注意事項
凡例
◀︎前10問▲目次■一覧次10問▶︎

9 件のコメント:

  1. 解答を知りたいのですが、どうにかなりませんか?

    返信削除
    返信
    1. 申し訳ないのですが、質問の真意がわかりません。全226問の「予想解答」は、可能な限り解説をして、書かせてもらったつもりです。

      削除
    2. 失礼ながら、191~200までしか解答が見れない状況となっております。
      出来れば、最新版を更新して頂けると助かります。

      よろしくお願いいたします。

      削除
    3. 大変失礼しました。つい先程気付いたのですが、投稿した記事がいつのまに下書きに戻っていたようです。ご迷惑をおかけしました。

      削除
  2. このコメントは投稿者によって削除されました。

    返信削除
  3. 私も同様に
    191〜200の「前回」部分のリンクを押すと
    「このブログ内でお探しのページは存在しません」
    となり、001〜190の問題、回答共に見れない状態です。

    わかりやすい解説で重宝してますので是非再掲して
    頂けるとありがたいです。

    返信削除
    返信
    1. 気づくのが遅くなってすみませんでした。投稿記事の一部が下書きになるという怪現象が起きたようです。すべて公開に戻しました。

      削除
  4. このコメントはブログの管理者によって削除されました。

    返信削除
  5. このコメントはブログの管理者によって削除されました。

    返信削除