しくみがわかる深層学習

個数:

しくみがわかる深層学習

  • 出版社からのお取り寄せとなります。
    入荷までにおよそ1~3週間程度かかります。
    ※商品によっては、品切れ等で入手できない場合がございます。
  • 出荷予定日とご注意事項
    ※上記を必ずご確認ください

    【出荷までの期間】
    ■通常、およそ1~3週間程度

    【ご注意事項】 ※必ずお読みください
    ◆上記期間よりも日数がかかる場合がございます。
    ◆お届け日のご指定は承っておりません。
    ◆品切れ・絶版等により入手できない場合がございます。
    ◆品切れ・絶版等の確認に2週間以上かかる場合がございます。
    ◆「帯」はお付けできない場合がございます。
    ◆画像の表紙や帯等は実物とは異なる場合があります。
    ◆特に表記のない限り特典はありません。
    ◆別冊解答などの付属品はお付けできない場合がございます。
  • 店舗受取サービスはご利用いただけません。

  • サイズ A5判/ページ数 179p/高さ 22cm
  • 商品コード 9784254122381
  • NDC分類 007.1
  • Cコード C3004

出版社内容情報

深層学習(ディープラーニング)の仕組みを,ベクトル,微分などの基礎数学から丁寧に解説。深層学習(ディープラーニング)の仕組みを,ベクトル,微分などの基礎数学から丁寧に解説。〔内容〕深層学習とは/深層学習のための数学入門/ニューラルネットワークの構造を知る/ニューラルネットワークをどう学習させるか/他

1. 深層学習とは
 1.1 ニューラルネットワークのブームは繰り返される
 1.2 何が深いのか
 1.3 学習するとはどういうことか
 1.4 深層学習はなぜうまく行くのか

2. 機械学習で使う用語
 2.1 機械学習における各種のタスク
 2.2 モデルとパラメータ
 2.3 過去問だけ解けてもダメ

3. 深層学習のための数学入門
 3.1 数を並べたものはベクトル
 3.2 ベクトルの演算
 3.3 数を縦横に並べたのが行列
 3.4 スカラー・ベクトル・行列はすべてテンソル
 3.5 微分・勾配・ヤコビ行列
 3.6 確率と統計量
 3.7 クロスエントロピーとKLダイバージェンス

4. ニューラルネットワークはどのような構造をしているか
 4.1 線形分類器は直線でデータを分類する
 4.2 重みはデータに基づいて最適化される
 4.3 単純パーセプトロン
 4.4 損失関数としてのクロスエントロピー
 4.5 経験リスク最小化
 4.6 単純パーセプトロンにおけるクロスエントロピー
 4.7 ソフトマックス関数
 4.8 正規分布と平均二乗誤差
 4.9 多層パーセプトロン
 4.10 活性化関数

5. ニューラルネットワークをどう学習させるか
 5.1 パラメータ空間を動き回るパラメータベクトル
 5.2 勾配降下法で山を下る
 5.3 確率的勾配降下法
 5.4 誤差逆伝播法(バックプロパゲーション)
  5.4.1 順伝播でひとまず予測を行う
  5.4.2 出力ユニット直前の重み行列の更新規則
  5.4.3 中間的な重み行列の更新規則
  5.4.4 逆伝播で間違いを伝えていく
  5.4.5 デルタの更新規則
  5.4.6 勾配消失問題
  5.4.7 順伝播と逆伝播の反復
 5.5 適応的最適化
 5.6 ドロップアウト
 5.7 バッチ正規化

6. 畳み込みニューラルネットワーク
 6.1 局所特徴
 6.2 フィルタリングによって局所特徴を検出する
 6.3 畳み込み層
  6.3.1 受容野
  6.3.2 カーネルの勾配
  6.3.3 パディングで縮小を補填
  6.3.4 ストライドで大またぎ
  6.3.5 チャネルを増やして多数の局所特徴を捉える
 6.4 プーリング
 6.5 2D-CNN

7. 再帰型ニューラルネットワーク
 7.1 系列データ
 7.2 再帰型ニューラルネットワークは記憶を持つ
 7.3 通時的逆伝播(BPTT)
 7.4 LSTMは記憶力をコントロールする

8. 深層生成モデル
 8.1 生成モデル
 8.2 敵対的生成ネットワーク(GAN)
 8.3 転置畳み込み(デコンボリューション)

9. おわりに

章末問題解答
文献案内
索 引

手塚太郎[テヅカタロウ]
著・文・その他

内容説明

人工知能を実現する上で現時点でもっとも有用な手法のひとつとされている深層学習について、それがどのような構造をしているのか、いかなる考え方に基づいて作られているかを説明。天下り的に深層学習の構造や学習の規則を羅列するのではなく、「なぜそうなるのか」の説明に力点を置いた。ベクトルや行列を使うことで添え字を減らし、式を簡潔に書くシンプルな記法を使っている。

目次

1 深層学習とは
2 機械学習で使う用語
3 深層学習のための数学入門
4 ニューラルネットワークはどのような構造をしているか
5 ニューラルネットワークをどう学習させるか
6 畳み込みニューラルネットワーク
7 再帰型ニューラルネットワーク
8 深層生成モデル

著者等紹介

手塚太郎[テズカタロウ]
1978年東京都に生まれる。2005年京都大学大学院情報学研究科博士後期課程修了。筑波大学図書館情報メディア系准教授、人工知能科学センター研究員(機械学習分野)。博士(情報学)。情報処理学会、電子情報通信学会、ACM等会員(本データはこの書籍が刊行された当時に掲載されていたものです)
※書籍に掲載されている著者及び編者、訳者、監修者、イラストレーターなどの紹介情報です。

感想・レビュー

※以下の感想・レビューは、株式会社ブックウォーカーの提供する「読書メーター」によるものです。

Shu

3
数式はサラサラ見流して通読。かなりわかりやすかった。今までのボトルネックがどこで今はどう解決されたから実用が進んでみたいなあたりが簡潔に説明されていて良書。数式も、復習の章があるので親切。今度は、丁寧に数式を追って再読したい。2018/11/02

tossy

0
数式が結構出てくるが全体的に読みやすく理解が深まった。2021/06/05

Kaz

0
Deep Learning(深層学習)の概念を、数式を用いて丁寧に説明している良書。深層学習に関しては、概念的に説明する書籍が多い中、しっかりと必要な数式を用いた上でわかりやすく記述されている。 この分野で使われる初等的な数学から深層生成モデルまで解説されていて、内容のボリュームが多いのにコンパクトにまとめられている。2020/05/15

Wisdom

0
ディープラーニングの勉強したいんだけど何から始めればいいですか?という初心者にはオススメしずらいけど,きちんと数式を追いかけて理解したい人には良書だと思う.2020/02/12

外部のウェブサイトに移動します

よろしければ下記URLをクリックしてください。

https://bookmeter.com/books/12924474
  • ご注意事項

    ご注意
    リンク先のウェブサイトは、株式会社ブックウォーカーの提供する「読書メーター」のページで、紀伊國屋書店のウェブサイトではなく、紀伊國屋書店の管理下にはないものです。
    この告知で掲載しているウェブサイトのアドレスについては、当ページ作成時点のものです。ウェブサイトのアドレスについては廃止や変更されることがあります。
    最新のアドレスについては、お客様ご自身でご確認ください。
    リンク先のウェブサイトについては、「株式会社ブックウォーカー」にご確認ください。

最近チェックした商品