-
>
全國計算機等級考試最新真考題庫模擬考場及詳解·二級MSOffice高級應用
-
>
決戰行測5000題(言語理解與表達)
-
>
軟件性能測試.分析與調優實踐之路
-
>
第一行代碼Android
-
>
JAVA持續交付
-
>
EXCEL最強教科書(完全版)(全彩印刷)
-
>
深度學習
機器學習和深度學習:原理、算法、實戰:使用Python和TensorFlow 版權信息
- ISBN:9787302624790
- 條形碼:9787302624790 ; 978-7-302-62479-0
- 裝幀:一般膠版紙
- 冊數:暫無
- 重量:暫無
- 所屬分類:>
機器學習和深度學習:原理、算法、實戰:使用Python和TensorFlow 本書特色
機器學習和深度學習已經成為從業人員在人工智能時代**的技術,被廣泛應用于圖像識別、自然語言理解、推薦系統、語音識別等多個領域,并取得了豐碩的成果。目前,很多高校的人工智能、軟件工程、計算機應用等專業均已開設了機器學習和深度學習的課程,此外,為便于讓學生掌握一些大數據的分析和可視化技術,有一些非計算機專業也開設了與機器學習相關的課程。同時,企業中的一些軟件開發人員也想學習相關行業中機器學習和深度學習技術應用的真實案例,而不用過多關注機器學習和深度學習中的一些數學知識。但是,在市面上能夠同時滿足上述需求的參考書并不多,而《機器學習和深度學習:原理、算法、實戰(使用Python和TensorFlow)》恰好是一本能滿足高校學生及相關從業人員需求的機器學習和深度學習的參考書。 本書的作者是兩位資深的行業專家并且擁有多年的企業培訓經驗,他們以案例式的編寫方式由淺入深地講解了機器學習和深度學習技術,讓讀者能夠快速掌握機器學習和深度學習的原理及相關應用。在本書的翻譯過程中,我們翻閱了大量資料,力求為讀者獻上-部貼近實際應用且通俗易懂的機器學習與深度學習方面的參考書。
機器學習和深度學習:原理、算法、實戰:使用Python和TensorFlow 內容簡介
《機器學習和深度學習:原理、算法、實戰(使用Python和TensorFlow)》以通俗易懂的風格介紹了機器學習和深度學習技術,只涉及了基本的數學知識。 該由兩位機器學習和深度學習領域的專家編寫,書中的案例涵蓋了銀行、保險、電子商務、零售和醫療等多個行業。書中講述如何在當今的智能設備和應用程序中使用機器學習和深度學習技術。 《機器學習和深度學習:原理、算法、實戰(使用Python和TensorFlow)》提供了對書中涉及的數據集、代碼和示例項目的下載。
機器學習和深度學習:原理、算法、實戰:使用Python和TensorFlow 目錄
第1章 機器學習與深度學習概述 1
1.1 人工智能與機器學習的歷史 2
1.2 機器學習項目的基礎 3
1.3 機器學習算法與傳統計算機程序 4
1.4 深度學習的工作原理 4
1.5 機器學習與深度學習的應用 5
1.5.1 日常生活中的應用 5
1.5.2 機器學習在制造業中的應用 5
1.5.3 機器人技術的應用 6
1.5.4 銀行與金融領域的應用 6
1.5.5 深度學習的應用 7
1.6 本書的組織結構 7
1.7 預備知識 —— 數學基礎 9
1.8 術語 9
1.9 機器學習 —— 擴展視野 10
1.9.1 人工智能發展現狀 10
1.9.2 人工智能未來的影響力 11
1.9.3 與人工智能相關的倫理、社會和
法律問題 12
1.10 Python及其作為機器學習語言的
潛力 13
1.11 關于TensorFlow 13
1.12 本章小結 13
第2章 Python編程與統計學基礎 15
2.1 認識Python 15
2.1.1 為什么使用Python 16
2.1.2 Python的版本 16
2.1.3 Python IDE 17
2.1.4 安裝Python 18
2.2 Python編程入門 20
2.2.1 使用Spyder IDE 20
2.2.2 **個代碼示例 21
2.2.3 錯誤和錯誤信息 23
2.2.4 命名約定 24
2.2.5 使用print輸出消息 25
2.3 Python中的數據類型 25
2.3.1 數值 25
2.3.2 字符串 26
2.3.3 列表 27
2.3.4 字典 28
2.4 Python中的包 30
2.4.1 NumPy 32
2.4.2 Pandas 33
2.4.3 Matplotlib 34
2.4.4 ScikitLearn 35
2.4.5 nltk 35
2.4.6 TensorFlow 35
2.5 Python中的條件語句和循環
語句 35
2.6 數據處理與使用Pandas深入
分析數據 37
2.6.1 數據導入和數據集的基本信息 38
2.6.2 子集和數據篩選器 41
2.6.3 Pandas中實用的函數 45
2.7 基本的描述性統計 47
2.7.1 平均值 48
2.7.2 中位數 49
2.7.3 方差和標準差 50
2.8 數據探索 52
2.8.1 探索數值型連續變量 53
2.8.2 探索離散變量和分類變量 61
2.8.3 探索其他類型的變量 63
2.9 本章小結 65
2.10 本章習題 65
第3章 回歸與邏輯回歸 67
3.1 什么是回歸 67
3.2 構建回歸模型 70
3.2.1 獲取回歸系數 70
3.2.2 回歸線示例 74
3.3 R-squared 77
3.4 多元回歸 80
3.5 回歸中的多重共線性 83
3.5.1 什么是多重共線性 85
3.5.2 多重共線性的檢測 87
3.5.3 計算VIF 88
3.6 回歸中各變量的影響力 93
3.6.1 P-value 93
3.6.2 P -value的理論 96
3.7 構建多元回歸模型的步驟 97
3.8 邏輯回歸模型 97
3.9 構建邏輯回歸模型 102
3.10 邏輯回歸線的準確率 104
3.11 多元邏輯回歸線 107
3.12 邏輯回歸中的多重共線性 111
3.13 變量的個體影響力 113
3.14 構建邏輯回歸模型的步驟 116
3.15 比較線性回歸模型與邏輯
回歸模型 116
3.16 本章小結 117
3.17 本章習題 118
第4章 決策樹 119
4.1 什么是決策樹 119
4.2 劃分準則:熵和信息增益 123
4.2.1 熵:不純度的度量 124
4.2.2 信息增益 125
4.2.3 基尼系數:與熵類似的方法 127
4.3 決策樹算法 128
4.4 實例研究:基于客服中心的
數據對客戶分類(細分) 132
4.4.1 研究目標和數據探索 132
4.4.2 使用Python構建模型 135
4.4.3 繪制決策樹 136
4.4.4 理解樹的輸出 137
4.4.5 驗證樹的準確率 142
4.5 過擬合的問題 143
4.5.1 巨大的決策樹 143
4.5.2 訓練數據和測試數據 145
4.5.3 過擬合 146
4.6 決策樹的剪枝 149
4.7 欠擬合的挑戰 152
4.8 使用二分搜索法設置剪枝參數 152
4.9 其他剪枝參數 154
4.9.1 葉子節點的*大數量 154
4.9.2 min_samples_in_leaf_node參數 155
4.10 構建決策樹模型的步驟 156
4.11 本章小結 156
4.12 本章習題 157
第5章 模型選擇和交叉驗證 159
5.1 構建模型的步驟 159
5.2 模型驗證指標:回歸 161
5.3 實例:華盛頓金縣的房屋銷售 162
5.3.1 研究目標和數據 162
5.3.2 構建和驗證模型 165
5.4 模型驗證指標:分類 167
5.4.1 混淆矩陣和準確率 167
5.4.2 不均衡分類的度量 169
5.5 權衡偏差與方差 189
5.5.1 過擬合的問題:方差 189
5.5.2 欠擬合問題:偏差 190
5.5.3 權衡偏差與方差 190
5.5.4 案例研究:皮馬印第安人糖尿病
預測 192
5.6 交叉驗證 195
5.6.1 交叉驗證:一個示例 195
5.6.2 K-折交叉驗證 197
5.6.3 訓練集-驗證集-留出交叉驗證
方法 199
5.7 特征工程的技巧和訣竅 201
5.7.1 什么是特征工程 202
5.7.2 創建啞變量或獨熱編碼 205
5.7.3 處理經度和緯度 214
5.7.4 處理日期類型的變量 219
5.7.5 數據轉換 225
5.8 處理類的不均衡 229
5.9 本章小結 234
5.10 本章習題 234
第6章 聚類分析 235
6.1 無監督學習 235
6.1.1 聚類分析 236
6.1.2 案例研究:批發客戶數據的
客戶細分 237
6.2 距離的度量 241
6.2.1 歐幾里得距離 242
6.2.2 距離矩陣 243
6.3 K-means聚類算法 244
6.3.1 聚類算法的步驟 245
6.3.2 K-means算法:圖解 247
6.3.3 K-means聚類算法:輸出 248
6.4 構建K-means聚類模型 248
6.5 聚類簇數量的選取 254
6.6 本章小結 257
6.7 本章習題 257
第7章 隨機森林和Boosting 259
7.1 集成模型 259
7.1.1 群體智慧 259
7.1.2 構建集成模型的方法 261
7.2 Bagging 261
7.2.1 自助采樣法 262
7.2.2 Bagging算法 262
7.3 隨機森林 263
7.3.1 隨機森林算法 264
7.3.2 隨機森林中的超參數 265
7.4 案例研究:交通事故預測 265
7.4.1 研究背景和目標 266
7.4.2 數據探索 266
7.4.3 構建模型和驗證模型 268
7.5 Boosting算法 271
7.6 AdaBoosting算法 271
7.7 Gradient Boosting算法 273
7.7.1 Gradient Boosting算法 273
7.7.2 Gradient Boosting算法在
決策樹上的應用 273
7.7.3 Boosting算法中的超參數 274
7.7.4 Gradient Boosting算法的圖解 275
7.8 案例研究:基于人口普查數據的
收入預測 278
7.8.1 研究背景和目標 279
7.8.2 數據探索 280
7.8.3 數據清洗和特征工程 283
7.8.4 構建模型與驗證模型 286
7.9 本章小結 289
7.10 本章習題 289
第8章 人工神經網絡 291
8.1 邏輯回歸的網絡圖 291
8.2 決策邊界的概念 293
8.3 多決策邊界問題 299
8.4 多決策邊界問題的解決方案 302
8.5 直觀理解神經網絡 309
8.6 神經網絡算法 312
8.6.1 神經網絡算法:非技術方式 313
8.6.2 神經網絡算法:數學公式 315
8.6.3 神經網絡算法:示例 316
8.7 梯度下降的概念 319
8.7.1 梯度下降在回歸模型中的應用 320
8.7.2 學習率 321
8.7.3 梯度下降在回歸模型中的編碼 321
8.7.4 一題多解 323
8.8 案例研究:手寫數字識別 324
8.8.1 研究背景和目標 324
8.8.2 數據 326
8.8.3 構建模型 329
8.8.4 模型預測與驗證模型 334
8.9 深度神經網絡 336
8.10 本章小結 337
8.11 本章習題 337
第9章 TensorFlow和Keras 339
9.1 深度神經網絡 339
9.2 深度學習框架 340
9.2.1 什么是TensorFlow 341
9.2.2 計算圖 341
9.2.3 Python Notebook 343
9.2.4 安裝TensorFlow 348
9.3 TensorFlow中的關鍵術語 349
9.4 使用TensorFlow構建模型 352
9.4.1 使用TensorFlow構建回歸
模型 352
9.4.2 使用TensorFlow構建邏輯回歸
模型 355
9.5 Keras 357
9.5.1 什么是 Keras 357
9.5.2 使用Keras 358
9.5.3 在Keras中應用MNIST數據集的
示例 358
9.6 本章小結 361
第10章 深度學習中的超參數 363
10.1 正則化 363
10.1.1 回歸模型中的正則化 364
10.1.2 L1正則化與L2正則化 368
10.1.3 在神經網絡中應用正則化 368
10.1.4 L1正則化和L2正則化的
編碼 375
10.1.5 在L1正則化和L2正則化中
應用數據標準化 377
10.2 隨機丟棄正則化 377
10.3 早停法 381
10.4 損失函數 384
10.5 激活函數 386
10.5.1 Sigmoid函數 386
10.5.2 Tanh函數 387
10.5.3 ReLU函數 390
10.5.4 Softmax函數 393
10.5.5 激活函數的編碼 393
10.6 學習率 395
10.6.1 學習率的應用示例 397
10.6.2 設置學習率的代碼 401
10.6.3 動量 405
10.7 優化器 407
10.7.1 SGD—Stochastic Gradient
Descent 407
10.7.2 小批量梯度下降法(Mini-Batch
Gradient Descent) 408
10.8 本章小結 410
第11章 卷積神經網絡 411
11.1 用于圖像的人工神經網絡 412
11.1.1 空間依賴性 412
11.1.2 ANNs中自由參數的數量 414
11.2 卷積核 414
11.2.1 卷積核的工作原理 415
11.2.2 利用卷積核執行特征檢測 417
11.2.3 卷積核中的權重 422
11.3 卷積層 422
11.3.1 在Keras中使用卷積層 423
11.3.2 彩色圖像的卷積核 425
11.3.3 零填充 429
11.3.4 跨步卷積(stride) 435
11.4 池化層 437
11.4.1 池化的工作原理 437
11.4.2 為什么進行池化 437
11.5 CNN模型的架構 440
11.5.1 CNN模型中的權重 441
11.5.2 CNN模型的編碼 443
11.6 案例研究:從圖像中識別
手勢 447
11.6.1 項目背景和研究目標 447
11.6.2 數據 448
11.6.3 構建模型和驗證模型 450
11.7 規劃理想的CNN模型 455
11.7.1 卷積層和池化層的數量 455
11.7.2 卷積層中卷積核的數量 456
11.7.3 批量歸一化(Batch
Normalization) 464
11.7.4 選擇優化器 471
11.8 構建CNN模型的步驟 475
11.9 本章小結 475
11.10 本章習題 476
機器學習和深度學習:原理、算法、實戰:使用Python和TensorFlow 作者簡介
Venkata Reddy Konasani,是一位數據科學家和專業的培訓師,他擅長構建信用風險模型和市場反應模型,并在社交媒體分析、機器學習以及深度學習技術方面有豐富的經驗。他畢業于孟買印度理工學院應用統計和信息學專業,獲得碩士學位。 Shailendra Kadre,就職于惠普有限公司,擔任全球產品分析主管。他畢業于德里印度理工學院設計工程專業,獲得碩士學位。他在數據分析和信息技術領域擁有豐富的工作經驗。他在商業管理和分析領域出版過兩冊書并撰寫過多篇文章。
- >
中國人在烏蘇里邊疆區:歷史與人類學概述
- >
龍榆生:詞曲概論/大家小書
- >
山海經
- >
史學評論
- >
詩經-先民的歌唱
- >
中國歷史的瞬間
- >
有舍有得是人生
- >
月亮虎