譯者序
前言
審校者簡介
緻謝
第1章 計算圖和TensorFlow1
1.1 如何構建Python環境1
1.1.1 創建環境3
1.1.2 安裝TensorFlow7
1.1.3 Jupyter記事本8
1.2 TensorFlow基本介紹10
1.2.1 計算圖10
1.2.2 張量12
1.2.3 創建和運行計算圖13
1.2.4 包含tf.constant的計算圖13
1.2.5 包含tf.Variable的計算圖14
1.2.6 包含tf. placeholder的計算圖15
1.2.7 運行和計算的區彆18
1.2.8 節點之間的依賴關係18
1.2.9 創建和關閉會話的技巧19
第2章 單一神經元21
2.1 神經元結構21
2.1.1 矩陣錶示法23
2.1.2 Python實現技巧:循環和NumPy24
2.1.3 激活函數25
2.1.4 代價函數和梯度下降:學習率的特點32
2.1.5 學習率的應用示例34
2.1.6 TensorFlow中的綫性迴歸示例38
2.2 邏輯迴歸示例47
2.2.1 代價函數47
2.2.2 激活函數48
2.2.3 數據集48
2.2.4 TensorFlow實現51
2.3 參考文獻54
第3章 前饋神經網絡56
3.1 網絡架構57
3.1.1 神經元的輸齣59
3.1.2 矩陣維度小結59
3.1.3 示例:三層網絡的方程59
3.1.4 全連接網絡中的超參數60
3.2 用於多元分類的softmax函數60
3.3 過擬閤簡要介紹61
3.3.1 過擬閤示例61
3.3.2 基本誤差分析66
3.4 Zalando數據集68
3.5 使用TensorFlow構建模型71
3.5.1 網絡架構71
3.5.2 softmax函數的標簽轉換:獨熱編碼73
3.5.3 TensorFlow模型74
3.6 梯度下降變體77
3.6.1 批量梯度下降77
3.6.2 隨機梯度下降78
3.6.3 小批量梯度下降79
3.6.4 各種變體比較80
3.7 錯誤預測示例84
3.8 權重初始化84
3.9 有效添加多個層87
3.10 增加隱藏層的優點89
3.11 比較不同網絡89
3.12 選擇正確網絡的技巧92
第4章 訓練神經網絡93
4.1 動態學習率衰減93
4.1.1 迭代還是周期94
4.1.2 階梯式衰減95
4.1.3 步長衰減96
4.1.4 逆時衰減98
4.1.5 指數衰減100
4.1.6 自然指數衰減101
4.1.7 TensorFlow實現105
4.1.8 將方法應用於Zalando數據集108
4.2 常用優化器109
4.2.1 指數加權平均109
4.2.2 Momentum112
4.2.3 RMSProp115
4.2.4 Adam117
4.2.5 應該使用哪種優化器117
4.3 自己開發的優化器示例118
第5章 正則化123
5.1 復雜網絡和過擬閤123
5.2 什麼是正則化127
5.3 ?p範數128
5.4 ?2正則化128
5.4.1 ?2正則化原理128
5.4.2 TensorFlow實現129
5.5 ?1正則化136
5.5.1 ?1正則化原理與TensorFlow實現137
5.5.2 權重真的趨於零嗎137
5.6 Dropout140
5.7 Early Stopping143
5.8 其他方法144
第6章 指標分析145
6.1 人工水平錶現和貝葉斯誤差146
6.2 關於人工水平錶現的故事148
6.3 MNIST中的人工水平錶現149
6.4 偏差150
6.5 指標分析圖151
6.6 訓練集過擬閤151
6.7 測試集152
6.8 如何拆分數據集153
6.9 不平衡類分布:會發生什麼157
6.10 精確率、召迴率和F1指標161
6.11 不同分布的數據集164
6.12 k摺交叉驗證170
6.13 手動指標分析示例177
第7章 超參數調優183
7.1 黑盒優化183
7.2 黑盒函數注意事項184
7.3 超參數調優問題185
7.4 黑盒問題示例186
7.5 網格搜索186
7.6 隨機搜索190
7.7 粗到細優化192
7.8 貝葉斯優化195
7.8.1 Nadaraya-Watson迴歸195
7.8.2 高斯過程195
7.8.3 平穩過程196
7.8.4 用高斯過程預測196
7.8.5 采集函數200
7.8.6 上置信界(UCB)201
7.8.7 示例201
7.9 對數尺度采樣207
7.10 使用Zalando數據集的超參數調優208
7.11 徑嚮基函數注意事項214
第8章 捲積神經網絡和循環神經網絡216
8.1 捲積核和過濾器216
8.2 捲積217
8.3 捲積運算示例223
8.4 池化227
8.5 構建CNN塊230
8.5.1 捲積層230
8.5.2 池化層231
8.5.3 各層的疊加231
8.5.4 CNN示例232
8.6 RNN介紹237
8.6.1 符號237
8.6.2 RNN的基本原理238
8.6.3 循環神經網絡名稱的由來239
8.6.4 學會統計239
第9章 研究項目244
9.1 問題描述244
9.2 數學模型246
9.3 迴歸問題246
9.4 數據準備250
9.5 模型訓練258
第10章 從零開始進行邏輯迴歸261
10.1 邏輯迴歸的數學背景262
10.2 Python實現264
10.3 模型測試266
10.3.1 數據集準備267
10.3.2 運行測試268
10.4 結論268
· · · · · · (
收起)