会员   密码 您忘记密码了吗?
1,494,701 本书已上架      购物流程 | 常见问题 | 联系我们 | 关于我们 | 用户协议

有店 App


当前分类

商品分类

浏览历史

当前位置: 首页 > 简体书 > Python深度學習:基於TensorFlow
Python深度學習:基於TensorFlow
上一张
下一张
prev next

Python深度學習:基於TensorFlow

作者: 吳茂貴,王冬,李濤,楊本法
出版社: 機械工業出版社
出版日期: 2018-10-01
商品库存: 点击查询库存
以上库存为海外库存属流动性。
可选择“空运”或“海运”配送,空运费每件商品是RM14。
配送时间:空运约8~12个工作天,海运约30个工作天。
(以上预计配送时间不包括出版社库存不足需调货及尚未出版的新品)
定价:   NT474.00
市场价格: RM85.21
本店售价: RM75.84
购买数量:
collect Add to cart Add booking
详细介绍 商品属性 商品标记
內容簡介

本書共22章,分為三個部分。部分(~5章)為Python及應用數學基礎部分,介紹Python和TensorFlow的基石Numpy,深度學習框架的鼻祖Theano,以及機器學習、深度學習算法應用數學基礎等內容。第二部分(第6~20章)為深度學習理論與應用部分,介紹機器學習的經典理論和演算法,深度學習理論及方法,TensorFlow基於CPU、GPU版本的安裝及使用、TensorFlow基礎、TensorFlow的一些新API,深度學習中神經網路方面的模型及TensorFlow實戰案例,TensorFlow的高級封裝,TensorFlow綜合實戰案例等內容。第三部分(第21~22章)為擴展部分,介紹強化學習、生成式對抗網路等內容。


作者介紹


目錄

前言

第一部分 Python及應用數學基礎
第1章 NumPy常用操作 2
1.1 生成ndarray的幾種方式 3
1.2 存取元素 5
1.3 矩陣操作 6
1.4 資料合併與展平 7
1.5 通用函數 9
1.6 廣播機制 11
1.7 小結 12
第2章 Theano基礎 13
2.1 安裝 14
2.2 符號變數 15
2.3 符號計算圖模型 17
2.4 函數 18
2.5 條件與迴圈 21
2.6 共用變數 23
2.7 小結 24
第3章 線性代數 25
3.1 標量、向量、矩陣和張量 25
3.2 矩陣和向量運算 28
3.3 特殊矩陣與向量 29
3.4 線性相關性及向量空間 31
3.5 範數 32
3.6 特徵值分解 33
3.7 奇異值分解 34
3.8 跡運算 35
3.9 實例:用Python實現主成分分析 36
3.10 小結 39
第4章 概率與資訊理論 40
4.1 為何要學概率、資訊理論 40
4.2 樣本空間與變數 41
4.3 概率分佈 42
4.3.1 離散型變數 42
4.3.2 連續型變數 45
4.4 邊緣概率 47
4.5 條件概率 47
4.6 條件概率的鏈式法則 48
4.7 獨立性及條件獨立性 48
4.8 期望、方差及協方差 49
4.9 貝葉斯定理 52
4.10 資訊理論 53
4.11 小結 56
第5章 概率圖模型 57
5.1 為何要引入概率圖 57
5.2 使用圖描述模型結構 58
5.3 貝葉斯網路 59
5.3.1 隱瑪律可夫模型簡介 60
5.3.2 隱瑪律可夫模型三要素 60
5.3.3 隱瑪律可夫模型三個基本問題 61
5.3.4 隱瑪律可夫模型簡單實例 62
5.4 瑪律可夫網路 64
5.4.1 瑪律可夫場 64
5.4.2 條件場 65
5.4.3 實例:用Tensorflow實現條件場 66
5.5 小結 70

第二部分 深度學習理論與應用
第6章 機器學習基礎 72
6.1 監督學習 72
6.1.1 線性模型 73
6.1.2 SVM 77
6.1.3 貝葉斯分類器 79
6.1.4 集成學習 81
6.2 無監督學習 84
6.2.1 主成分分析 84
6.2.2 k-means聚類 84
6.3 梯度下降與優化 85
6.3.1 梯度下降簡介 86
6.3.2 梯度下降與資料集大小 87
6.3.3 傳統梯度優化的不足 89
6.3.4 動量演算法 90
6.3.5 自我調整演算法 92
6.3.6 有約束優化 95
6.4 前饋神經網路 96
6.4.1 神經元結構 97
6.4.2 感知機的局限 98
6.4.3 多層神經網路 99
6.4.4 實例:用TensorFlow實現XOR 101
6.4.5 反向傳播演算法 103
6.5 實例:用Keras構建深度學習架構 109
6.6 小結 109
第7章 深度學習挑戰與策略 110
7.1 正則化 110
7.1.1 正則化參數 111
7.1.2 增加資料量 115
7.1.3 梯度裁剪 116
7.1.4 提前終止 116
7.1.5 共用參數 117
7.1.6 Dropout 117
7.2 預處理 119
7.2.1 初始化 120
7.2.2 歸一化 120
7.3 批量化 121
7.3.1 梯度下降法 121
7.3.2 批標準化 122
7.4 並行化 124
7.4.1 TensorFlow利用GPU加速 124
7.4.2 深度學習並行模式 125
7.5 選擇合適的啟動函數 127
7.6 選擇合適代價函數 128
7.7 選擇合適的優化演算法 129
7.8 小結 130
第8章 安裝TensorFlow 131
8.1 TensorFlow CPU版的安裝 131
8.2 TensorFlow GPU版的安裝 132
8.3 配置Jupyter Notebook 136
8.4 實例:CPU與GPU性能比較 137
8.5 實例:單GPU與多GPU性能比較 138
8.6 小結 140
第9章 TensorFlow基礎 141
9.1 TensorFlow系統架構 141
9.2 資料流程圖 143
9.3 TensorFlow基本概念 144
9.3.1 張量 144
9.3.2 運算元 145
9.3.3 計算圖 146
9.3.4 會話 146
9.3.5 常量 148
9.3.6 變數 149
9.3.7 預留位置 153
9.3.8 實例:比較constant、variable和placeholder 154
9.4 TensorFlow實現資料流程圖 156
9.5 視覺化資料流程圖 156
9.6 TensorFlow分散式 158
9.7 小結 160
第10章 TensorFlow影像處理 162
10.1 載入圖像 162
10.2 圖像格式 163
10.3 把圖像轉換為TFRecord檔 164
10.4 讀取TFRecord文件 165
10.5 影像處理實例 166
10.6 全新的資料讀取方式—Dataset API 170
10.6.1 Dataset API 架構 170
10.6.2 構建Dataset 171
10.6.3 創建反覆運算器 174
10.6.4 從反覆運算器中獲取資料 174
10.6.5 讀入輸入資料 175
10.6.6 預處理數據 175
10.6.7 批次處理資料集元素 176
10.6.8 使用高級API 176
10.7 小結 177
第11章 TensorFlow神經元函數 178
11.1 啟動函數 178
11.1.1 sigmoid函數 179
11.1.2 tanh函數 179
11.1.3 relu函數 180
11.1.4 softplus函數 181
11.1.5 dropout函數 181
11.2 代價函數 181
11.2.1 sigmoid_cross_entropy_with_logits函數 182
11.2.2 softmax_cross_entropy_with_logits函數 183
11.2.3 sparse_softmax_cross_entropy_with_logits函數 184
11.2.4 weighted_cross_entropy_with_logits函數 184
11.3 小結 185
第12章 TensorFlow自編碼器 186
12.1 自編碼簡介 186
12.2 降噪自編碼 188
12.3 實例:TensorFlow實現自編碼 188
12.4 實例:用自編碼預測信用卡欺詐 191
12.5 小結 197
第13章 TensorFlow實現Word2Vec 198
13.1 詞向量及其表達 198
13.2 Word2Vec原理 199
13.2.1 CBOW模型 200
13.2.2 Skim-gram模型 200
13.3 實例:TensorFlow實現Word2Vec 201
13.4 小結 206
第14章 TensorFlow卷積神經網路 207
14.1 卷積神經網路簡介 207
14.2 卷積層 208
14.2.1 卷積核 209
14.2.2 步幅 211
14.2.3 填充 212
14.2.4 多通道上的卷積 213
14.2.5 啟動函數 214
14.2.6 卷積函數 215
14.3 池化層 216
14.4 歸一化層 217
14.5 TensorFlow實現簡單卷積神經網路 218
14.6 TensorFlow實現進階卷積神經網路 219
14.7 幾種經典卷積神經網路 223
14.8 小結 224
第15章 TensorFlow迴圈神經網路 226
15.1 迴圈神經網路簡介 226
15.2 前向傳播與隨時間反向傳播 228
15.3 梯度消失或爆炸 231
15.4 LSTM演算法 232
15.5 RNN其他變種 235
15.6 RNN應用場景 236
15.7 實例:用LSTM實現分類 237
15.8 小結 241
第16章 TensorFlow高層封裝 242
16.1 TensorFlow高層封裝簡介 242
16.2 Estimator簡介 243
16.3 實例:使用Estimator預定義模型 245
16.4 實例:使用Estimator自訂模型 247
16.5 Keras簡介 252
16.6 實例:Keras實現序列式模型 253
16.7 TFLearn簡介 255
16.7.1 利用TFLearn解決線性回歸問題 256
16.7.2 利用TFLearn進行深度學習 256
16.8 小結 257
第17章 情感分析 258
17.1 深度學習與自然語言處理 258
17.2 詞向量簡介 259
17.3 迴圈神經網路 260
17.4 遷移學習簡介 261
17.5 實例:TensorFlow實現情感分析 262
17.5.1 導入數據 262
17.5.2 定義輔助函數 267
17.5.3 構建RNN模型 267
17.5.4 調優超參數 269
17.5.5 訓練模型 270
17.6 小結 272
第18章 利用TensorFlow預測乳腺癌 273
18.1 資料說明 273
18.2 數據預處理 274
18.3 探索資料 276
18.4 構建神經網路 279
18.5 訓練並評估模型 281
18.6 小結 283
第19章 聊天機器人 284
19.1 聊天機器人原理 284
19.2 帶注意力的框架 286
19.3 用TensorFlow實現聊天機器人 289
19.3.1 介面參數說明 290
19.3.2 訓練模型 293
19.4 小結 302
第20章 人臉識別 303
20.1 人臉識別簡介 303
20.2 項目概況 306
20.3 實施步驟 307
20.3.1 數據準備 307
20.3.2 預處理數據 307
20.3.3 訓練模型 309
20.3.4 測試模型 313
20.4 小結 316

第三部分 擴展篇
第21章 強化學習基礎 318
21.1 強化學習簡介 318
21.2 強化學習常用演算法 320
21.2.1 Q-Learning演算法 320
21.2.2 Sarsa演算法 322
21.2.3 DQN演算法 322
21.3 小結 324
第22章 生成式對抗網路 325
22.1 GAN簡介 325
22.2 GAN的改進版本 327
22.3 小結 329