• 教科書献本のご案内
  • ニュースメール
  • アフターサービス
  • facebook
  • 講演会2019

自然言語処理のための深層学習

書籍情報
ISBN978-4-320-12446-2
判型B5変型 
ページ数336ページ
発売日2019年01月31日
本体価格4,500円
自然言語処理のための深層学習 書影
自然言語処理のための深層学習

新刊自然言語処理におけるニューラルネットワーク技術を「ニューラルネットワークまずありき」ではなく,これまでの様々な方法論と比較し,それらとの位置関係を丁寧に説明している。

 従来の機械学習技術から説き起こして,ニューラルネットワーク技術の利点や特徴を明らかにしながら,その導入を行い,言語処理の基盤技術となったニューラルネットワークによる言語モデルと単語埋め込み(ニューラルネットワークを用いた単語の意味表現)について,その背景や応用を含めてわかりやすく説明している。
 特に単語埋め込みについては,その様々な利用方法を詳しく紹介しており,言語処理の様々な問題に深層学習を活用する方法について取り上げた後,ニューラルネットワークの中でも特に言語処理に頻繁に用いられる再帰的ニューラルネットワーク(RNN)とそれを用いたエンコーダ・デコーダアーキテクチャ(近年の機械翻訳システムの基本的な枠組み)を系統立てて説明している。また,木構造ネットワーク,構造予測,マルチタスク学習という進んだ話題についても適当な分量が割かれている。
 本書には,自然言語処理の中核的なシステムを題材とした具体的な事例紹介が多数含まれており,さらに実装実現における注意事項や研究事例へのポインタも豊富に取り上げられている。様々な事項が相互に関連づけられて一枚の地図として示されているので,初学者が通読すれば技術の全容を把握できるし,すでに研究開発を進めている研究者・技術者であれば,多くの技術の位置付けが再確認でき,より広い文脈に位置付けるのに有益だろう。
[原著:Neural Network Methods for Natural Language Processing]

目次

第1章 導入
1.1 自然言語処理の困難さ
1.2 ニューラルネットワークと深層学習
1.3 自然言語処理における深層学習
1.4 本書で扱う内容とその構成
1.5 本書で扱っていない内容
1.6 用語に関する注意
1.7 数学的記法について

第1編 教師あり分類とフィードフォワードニューラルネットワーク

第2章 機械学習の基礎と線形モデル
2.1 教師あり学習とパラメータを持つ関数
2.2 訓練セット,テストセット,検証セット
2.3 線形モデル
2.4 表現
2.5 ワンホットベクトル表現と密ベクトル表現
2.6 対数線形多クラス分類
2.7 最適化としての訓練
2.8 勾配に基づく最適化

第3章 線形モデルから多層パーセプトロンへ
3.1 線形モデルの限界:排他的論理和問題
3.2 非線形入力変換
3.3 カーネル法
3.4 訓練可能な写像関数

第4章 フィードフォワードニューラルネットワーク
4.1 脳にヒントを得た比喩
4.2 数学的記法による記述
4.3 表現力
4.4 一般的な非線形要素
4.5 損失関数
4.6 正則化とドロップアウト
4.7 類似度と距離の層
4.8 埋め込み層

第5章 ニューラルネットワークの訓練
5.1 計算グラフによる抽象化
5.2 実践豆知識

第2編 自然言語データの扱い

第6章 テキストデータのための素性
6.1 自然言語処理における分類問題のタイプ分け
6.2 自然言語処理問題のための素性

第7章 事例研究:自然言語処理における素性
7.1 文書分類:言語同定
7.2 文書分類:トピック分類
7.3 文書分類:著者特定
7.4 文脈に埋め込まれた単語:品詞タグ付け
7.5 文脈に埋め込まれた単語:固有表現認識
7.6 文脈に埋め込まれた単語と言語学的素性:前置詞意味曖昧性解消
7.7 文脈に埋め込まれた単語の間の関係:アークを単位としたパージング

第8章 テキストの素性から入力への変換
8.1 カテゴリ素性の符号化
8.2 密ベクトルの組み合わせ
8.3 ワンホットベクトルと密ベクトルの関係
8.4 諸事項
8.5 事例紹介:品詞タグ付け
8.6 事例紹介:アークを単位としたパージング

第9章 言語モデリング
9.1 言語モデリングタスク
9.2 言語モデルの評価:パープレキシティ
9.3 言語モデリングの古典的手法
9.4 ニューラル言語モデル
9.5 生成における言語モデルの利用
9.6 副産物:単語表現

第10章 事前学習された単語表現
10.1 無作為初期化
10.2 タスクに固有の教師あり事前学習
10.3 教師なし事前学習
10.4 単語埋め込みアルゴリズム
10.5 文脈の選択
10.6 連語と屈折の扱い
10.7 分布に基づく手法の限界

第11章 単語埋め込みの利用
11.1 単語ベクトルの獲得
11.2 単語の類似度
11.3 単語のクラスタリング
11.4 類義語の発見
11.5 仲間外れ探し
11.6 短い文書の類似度
11.7 単語の類推
11.8 レトロフィッティングと射影
11.9 実践における落し穴

第12章 事例研究:文の意味推論のためのフィードフォワードアーキテクチャ
12.1 自然言語推論とSNLIデータセット
12.2 テキストの類似性を判定するネットワーク

第3編 特別なアーキテクチャ

第13章 n-グラム検出器:畳み込みニューラルネットワーク
13.1 基本的な畳み込みとプーリング
13.2 代替法:素性ハッシュ
13.3 階層的畳み込み

第14章 再帰的ニューラルネットワーク:系列とスタックのモデリング
14.1 RNN抽象化
14.2 RNNの訓練
14.3 一般的なRNNの利用方法
14.4 双方向RNN(biRNN)
14.5 多層RNN(積み上げRNN)
14.6 RNNによるスタックの表現
14.7 文献を読む際の注意

第15章 RNNの具体的な構成
15.1 RNNとしてのCBOW
15.2 単純RNN
15.3 ゲート付きアーキテクチャ
15.4 その他の変種
15.5 RNNにおけるドロップアウト

第16章 RNNを用いたモデリング
16.1 受理器(アクセプタ)
16.2 素性抽出器としてのRNN

第17章 条件付き生成
17.1 RNN生成器
17.2 条件付き生成(符号化器復号化器)
17.3 文の類似度の教師なし学習
17.4 アテンションあり条件付き生成
17.5 自然言語処理におけるアテンションに基づくモデル

第4編 追加的な話題

第18章 RecNNによる木構造のモデリング
18.1 形式的定義
18.2 拡張と変種
18.3 木構造ニューラルネットワークの訓練
18.4 シンプルな代替案:木を線条化する
18.5 今後の見通し

第19章 構造を持つ出力の予測
19.1 探索に基づく構造予測
19.2 貪欲法による構造予測
19.3 構造を持つ出力の予測としての条件付き生成
19.4 例

第20章 モデルのカスケード接続,マルチタスク学習,半教師あり学習
20.1 モデルのカスケード接続
20.2 マルチタスク学習
20.3 半教師あり学習
20.4 様々な例
20.5 今後の見通し

第21章 結論
21.1 これまでの進展
21.2 これからの課題

文献一覧
訳者あとがき
略語一覧
索  引