Python機器學(xué)習(xí)與深度學(xué)習(xí)
定 價:149 元
- 作者:王娟
- 出版時間:2025/6/1
- ISBN:9787030817501
- 出 版 社:科學(xué)出版社
- 中圖法分類:TP312.8,TP181
- 頁碼:615
- 紙張:
- 版次:1
- 開本:B5
讀者對象:數(shù)學(xué)與應(yīng)用數(shù)學(xué)、信息與計算科學(xué)、統(tǒng)計學(xué)、計算機科學(xué)與技術(shù)等理工科專業(yè)的高年級本科生, 作為機器學(xué)習(xí)、神經(jīng)網(wǎng)絡(luò)或深度學(xué)習(xí)的理論教材或?qū)嶒瀸嵺`配套教材(加 * 的內(nèi)容可供學(xué)生自主學(xué)習(xí)),人工智能領(lǐng)域或相關(guān)研究領(lǐng)域的研究生,對人工智能感興趣的工程技術(shù)人員
本書堅持理論教學(xué)環(huán)節(jié)與實驗實踐教學(xué)環(huán)節(jié)并重的教育理念, 不僅詳細探討了機器學(xué)習(xí)和深度學(xué)習(xí)原理, 即“模型、學(xué)習(xí)準(zhǔn)則和優(yōu)化算法”, 而且對每一個模型均輔以 Python “自編碼”算法設(shè)計, 詳細再現(xiàn)了從原理分析到算法設(shè)計與應(yīng)用的過程和思想, 使理論分析、優(yōu)化計算與算法設(shè)計三者交互映襯, 便于讀者學(xué)習(xí)掌握.
本書共包含 16 章, 既涵蓋了經(jīng)典的機器學(xué)習(xí)模型, 如線性模型、k-近鄰、支持向量機、決策樹、貝葉斯模型、集成學(xué)習(xí)、聚類等, 又涵蓋了深度學(xué)習(xí)領(lǐng)域新興優(yōu)秀的學(xué)習(xí)模型, 如卷積神經(jīng)網(wǎng)絡(luò)、循環(huán)神經(jīng)網(wǎng)絡(luò)、自然語言處理和生成式深度學(xué)習(xí)等.
更多科學(xué)出版社服務(wù),請掃碼獲取。
王娟,博士,教授,碩士生導(dǎo)師,國家級一流本科專業(yè)負(fù)責(zé)人,國家級一流本科課程負(fù)責(zé)人,中原領(lǐng)軍人才,中原教學(xué)名師,河南省高等學(xué)校教學(xué)名師,河南省教育廳學(xué)術(shù)技術(shù)帶頭人,河南省高校青年骨干教師,信陽師范大學(xué)第一屆校長教學(xué)質(zhì)量獎獲得者。2003.06在信陽師范大學(xué)數(shù)學(xué)系獲學(xué)士學(xué)位, 2009.07在鄭州大學(xué)數(shù)學(xué)與統(tǒng)計學(xué)院獲碩士學(xué)位,2012.07在北京信息控制研究所獲博士學(xué)位。2012年獲首屆全國青年教師教學(xué)大獎賽理科組一等獎,同年獲河南省教育系統(tǒng)教學(xué)技能競賽特等獎,并被授予“河南省教學(xué)標(biāo)兵”稱號,2013年被授予河南省“五一勞動獎?wù)隆薄ⅰ昂幽鲜“倜毠ぜ夹g(shù)英杰”,2015年被評為河南省“文明教師”,2019年獲河南省先進工作者。主要從事生物數(shù)學(xué)、控制理論與應(yīng)用以及數(shù)學(xué)教育等方面的研究。主要從事生物數(shù)學(xué)、控制理論與應(yīng)用以及數(shù)學(xué)教育等方面的研究。近年來,主持完成國家自然科學(xué)基金項目1項、省部級項目2項等
目錄
前言
第1章Python與機器學(xué)習(xí)基礎(chǔ)1
1.1Python語言及其基本語法2
1.1.1Python語言與開發(fā)環(huán)境2
1.1.2Python語法與面向數(shù)組計算4
1.2Python模塊化設(shè)計與感知機10
1.2.1Python模塊化設(shè)計10
1.2.2感知機模型13
1.2.3感知機的算法設(shè)計16
1.3機器學(xué)習(xí)與深度學(xué)習(xí)基礎(chǔ)25
1.3.1機器學(xué)習(xí)簡述25
1.3.2機器學(xué)習(xí)的類型29
1.3.3深度學(xué)習(xí)簡述31
1.4過擬合與泛化性能33
1.4.1過擬合33
1.4.2偏差與方差37
1.5習(xí)題與實驗40
1.6本章小結(jié)41
1.7參考文獻41
第2章模型評估與多分類學(xué)習(xí)43
2.1評估方法43
2.1.1留出法44
2.1.2k折交叉驗證法45
2.1.3自助法47
2.1.4調(diào)參與最終模型49
2.1.5Hyperopt自動化超參數(shù)調(diào)優(yōu)51
2.2性能度量55
2.2.1性能度量指標(biāo)55
2.2.2P-R曲線57
2.2.3ROC曲線60
2.2.4代價敏感錯誤率與代價曲線62
2.2.5性能度量算法設(shè)計64
2.3多分類學(xué)習(xí)73
2.3.1多分類學(xué)習(xí)策略73
2.3.2多分類學(xué)習(xí)的算法設(shè)計74
2.4習(xí)題與實驗79
2.5本章小結(jié)79
2.6參考文獻80
第3章線性回歸81
3.1線性回歸模型的閉式解82
3.1.1學(xué)習(xí)準(zhǔn)則與閉式解82
3.1.2可決系數(shù)84
3.1.3算法設(shè)計與應(yīng)用85
3.2梯度下降法迭代優(yōu)化91
3.2.1梯度下降法與參數(shù)更新公式91
3.2.2算法設(shè)計與應(yīng)用93
3.3多項式回歸98
3.3.1模型建立與算法設(shè)計98
3.3.2學(xué)習(xí)曲線101
3.4線性回歸的正則化方法104
3.4.1Ridge回歸及其算法設(shè)計106
3.4.2LASSO回歸及其算法設(shè)計110
3.4.3ElasticNet回歸及其算法設(shè)計121
3.5習(xí)題與實驗124
3.6本章小結(jié)125
3.7參考文獻126
第4章邏輯回歸127
4.1二分類學(xué)習(xí)任務(wù)127
4.1.1邏輯回歸模型與交叉熵?fù)p失函數(shù).127
4.1.2梯度下降法及其加速算法130
4.1.3線性收斂的隨機優(yōu)化算法133
4.1.4二階優(yōu)化的擬牛頓算法135
4.1.5二分類算法設(shè)計與應(yīng)用139
4.2多分類學(xué)習(xí)任務(wù)154
4.2.1Softmax回歸和學(xué)習(xí)策略155
4.2.2多分類算法設(shè)計與實現(xiàn)158
4.3習(xí)題與實驗165
4.4本章小結(jié)165
4.5參考文獻166
第5章判別分析與主成分分析167
5.1LDA二分類問題167
5.1.1廣義瑞利商和LDA模型求解168
5.1.2LDA二分類問題算法171
5.2LDA多分類任務(wù)的降維與預(yù)測174
5.2.1LDA多分類模型建立和求解174
5.2.2LDA多分類任務(wù)的降維與預(yù)測算法177
5.3二次判別分析182
5.4主成分分析184
5.4.1主成分分析原理184
5.4.2QR正交分解法求實對稱矩陣特征值與特征向量188
5.4.3主成分分析算法設(shè)計191
5.5核主成分分析195
5.6習(xí)題與實驗199
5.7本章小結(jié)200
5.8參考文獻201
第6章決策樹202
6.1特征劃分選擇與連續(xù)值處理202
6.1.1信息熵203
6.1.2離散特征變量的劃分標(biāo)準(zhǔn)204
6.1.3連續(xù)特征變量的劃分標(biāo)準(zhǔn)與分箱處理209
6.1.4特征劃分選擇標(biāo)準(zhǔn)的算法設(shè)計213
6.2決策樹算法設(shè)計217
6.3剪枝處理226
6.4基于CART的回歸樹231
6.5習(xí)題與實驗239
6.6本章小結(jié)241
6.7參考文獻242
第7章k-近鄰243
7.1距離度量245
7.2kd樹的建立與搜索246
7.3k-近鄰算法設(shè)計249
7.4習(xí)題與實驗259
7.5本章小結(jié)260
7.6參考文獻261
第8章貝葉斯分類器262
8.1樸素貝葉斯分類器263
8.1.1樸素貝葉斯分類器原理263
8.1.2樸素貝葉斯分類器算法設(shè)計266
8.2半樸素貝葉斯分類器273
8.2.1半樸素貝葉斯分類器原理273
8.2.2基于AODE算法的半樸素貝葉斯算法設(shè)計275
8.3習(xí)題與實驗280
8.4本章小結(jié)281
8.5參考文獻281
第9章支持向量機282
9.1線性可分支持向量機282
9.1.1間隔與支持向量282
9.1.2對偶問題與KKT條件284
9.1.3線性可分支持向量機模型286
9.2軟間隔與線性支持向量機288
9.3核函數(shù)與非線性支持向量機290
9.4SMO與Pegasos優(yōu)化算法291
9.4.1SMO算法291
9.4.2Pegasos算法295
9.5支持向量機的算法設(shè)計296
9.6支持向量機回歸310
9.6.1SVR模型與學(xué)習(xí)310
9.6.2SVR算法設(shè)計313
9.7習(xí)題與實驗321
9.8本章小結(jié)321
9.9參考文獻322
第10章集成學(xué)習(xí)324
10.1Boosting族算法326
10.1.1AdaBoost分類及其變體算法326
10.1.2AdaBoost回歸336
10.1.3回歸問題的提升樹與GBDT算法340
10.1.4分類問題的GBDT算法346
10.2Bagging與隨機森林350
10.2.1Bagging350
10.2.2隨機森林356
10.3XGBoost364
10.3.1XGBoost模型與學(xué)習(xí)364
10.3.2XGBoost分類與回歸算法.369
10.4習(xí)題與實驗.377
10.5本章小結(jié)377
10.6參考文獻378
第11章聚類379
11.1聚類的性能度量和距離度量379
11.2原型聚類385
11.2.1k-means聚類386
11.2.2學(xué)習(xí)向量量化394
11.2.3高斯混合聚類398
11.3密度聚類405
11.4層次聚類410
11.5習(xí)題與實驗415
11.6本章小結(jié)415
11.7參考文獻416
第12章前饋神經(jīng)網(wǎng)絡(luò)417
12.1單層神經(jīng)網(wǎng)絡(luò)419
12.2BP神經(jīng)網(wǎng)絡(luò)423
12.2.1BP神經(jīng)網(wǎng)絡(luò)訓(xùn)練原理423
12.2.2Affine層設(shè)計430
12.2.3BP神經(jīng)網(wǎng)絡(luò)架構(gòu)設(shè)計431
12.2.4加速優(yōu)化學(xué)習(xí)方法440
12.2.5基于優(yōu)化學(xué)習(xí)方法的BP神經(jīng)網(wǎng)絡(luò)算法設(shè)計446
12.3神經(jīng)網(wǎng)絡(luò)多分類問題449
12.4深度神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)453
12.4.1梯度消失和激活函數(shù)454
12.4.2網(wǎng)絡(luò)權(quán)重初始化方法458
12.4.3過擬合和節(jié)點丟棄460
12.4.4批歸一化465
12.5徑向基函數(shù)神經(jīng)網(wǎng)絡(luò)472
12.6習(xí)題與實驗477
12.7本章小結(jié)479
12.8參考文獻479
第13章卷積神經(jīng)網(wǎng)絡(luò)481
13.1卷積層482
13.2池化層488
13.3卷積神經(jīng)網(wǎng)絡(luò)的算法設(shè)計490
13.3.1卷積層的算法設(shè)計490
13.3.2池化層的算法設(shè)計492
13.3.3CNN算法設(shè)計架構(gòu)494
13.4習(xí)題與實驗503
13.5本章小結(jié)505
13.6參考文獻505
第14章循環(huán)神經(jīng)網(wǎng)絡(luò)與自然語言處理506
14.1簡單循環(huán)神經(jīng)網(wǎng)絡(luò)模型506
14.1.1S-RNN模型與學(xué)習(xí)506
14.1.2S-RNN算法設(shè)計511
14.2長短期記憶網(wǎng)絡(luò)520
14.2.1LSTM模型與學(xué)習(xí)520
14.2.2LSTM算法設(shè)計523
14.3門控循環(huán)單元網(wǎng)絡(luò)530
14.3.1GRU模型與學(xué)習(xí)530
14.3.2GRU算法設(shè)計532
14.4自然語言處理537
14.4.1word2vec模型537
14.4.2Seq2Seq模型541
14.4.3Attention機制551
14.5習(xí)題與實驗561
14.6本章小結(jié)561
14.7參考文獻562
第15章自組織映射神經(jīng)網(wǎng)絡(luò)563
15.1SOM網(wǎng)絡(luò)模型和學(xué)習(xí)564
15.2SOM算法設(shè)計566
15.3習(xí)題與實驗575
15.4本章小結(jié)576
15.5參考文獻576
第16章生成式深度學(xué)習(xí)577
16.1變分自編碼器577
16.1.1VAE模型和學(xué)習(xí)578
16.1.2VAE算法設(shè)計583
16.2生成式對抗網(wǎng)絡(luò)593
16.2.1GAN模型和學(xué)習(xí)594
16.2.2GAN算法設(shè)計596
16.3深度卷積生成式對抗網(wǎng)絡(luò)DCGAN607
16.4習(xí)題與實驗613
16.5本章小結(jié)613
16.6參考文獻614