婷婷五月情,国产精品久久久久久亚洲小说,runaway韩国电影免费完整版,国产乱在线观看视频,日韩精品首页,欧美在线视频二区

歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí)

包郵 PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí)

作者:李金洪
出版社:人民郵電出版社出版時(shí)間:2021-12-01
開(kāi)本: 16開(kāi) 頁(yè)數(shù): 355
中 圖 價(jià):¥84.4(6.5折) 定價(jià)  ¥129.8 登錄后可看到會(huì)員價(jià)
加入購(gòu)物車(chē) 收藏
開(kāi)年大促, 全場(chǎng)包郵
?新疆、西藏除外
本類(lèi)五星書(shū)更多>

PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí) 版權(quán)信息

PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí) 本書(shū)特色

介紹深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)相關(guān)的一系列技術(shù)與實(shí)現(xiàn)方法; 內(nèi)容涵蓋PyTorch的使用、神經(jīng)網(wǎng)絡(luò)的原理、神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)模型、圖神經(jīng)網(wǎng)絡(luò)的原理、圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)模型; 書(shū)中給出用PyTorch實(shí)現(xiàn)的網(wǎng)絡(luò)模型和算法實(shí)例代碼; 提供本書(shū)源代碼下載

PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí) 內(nèi)容簡(jiǎn)介

本書(shū)從基礎(chǔ)知識(shí)開(kāi)始,介紹深度學(xué)習(xí)與圖神經(jīng)網(wǎng)絡(luò)相關(guān)的一系列技術(shù)與實(shí)現(xiàn)方法,主要內(nèi)容包括PyTorch的使用、神經(jīng)網(wǎng)絡(luò)的原理、神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)模型、圖神經(jīng)網(wǎng)絡(luò)的基礎(chǔ)模型。書(shū)中側(cè)重講述與深度學(xué)習(xí)基礎(chǔ)相關(guān)的網(wǎng)絡(luò)模型和算法思想,以及圖神經(jīng)網(wǎng)絡(luò)的原理,且針對(duì)這些知識(shí)點(diǎn)給出在PyTorch框架上的實(shí)現(xiàn)代碼。 本書(shū)適合想學(xué)習(xí)圖神經(jīng)網(wǎng)絡(luò)的技術(shù)人員、人工智能從業(yè)人員閱讀,也適合作為大專(zhuān)院校相關(guān)專(zhuān)業(yè)的師生用書(shū)和培訓(xùn)班的教材。

PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí) 目錄

第 一篇 入門(mén)——PyTorch基礎(chǔ)
第 1章 快速了解人工智能與PyTorch 3
1.1 圖神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 4
1.1.1 深度神經(jīng)網(wǎng)絡(luò) 4
1.1.2 圖神經(jīng)網(wǎng)絡(luò) 4
1.2 PyTorch是做什么的 4
1.3 PyTorch的特點(diǎn) 5
1.4 PyTorch與TensorFlow各有所長(zhǎng) 6
1.5 如何使用本書(shū)學(xué)好深度學(xué)習(xí) 8
第 2章 搭建開(kāi)發(fā)環(huán)境 9
2.1 下載及安裝Anaconda 10
2.1.1 下載Anaconda開(kāi)發(fā)工具 10
2.1.2 安裝Anaconda開(kāi)發(fā)工具 10
2.1.3 安裝Anaconda開(kāi)發(fā)工具時(shí)的注意事項(xiàng) 11
2.2 安裝PyTorch 11
2.2.1 打開(kāi)PyTorch官網(wǎng) 12
2.2.2 配置PyTorch安裝命令 12
2.2.3 使用配置好的命令安裝PyTorch 12
2.2.4 配置PyTorch的鏡像源 13
2.3 熟悉Anaconda 3的開(kāi)發(fā)工具 15
2.3.1 快速了解Spyder 15
2.3.2 快速了解Jupyter Notebook 17
2.4 測(cè)試開(kāi)發(fā)環(huán)境 18
第3章 PyTorch基本開(kāi)發(fā)步驟——用邏輯回歸擬合二維數(shù)據(jù) 19
3.1 實(shí)例1:從一組看似混亂的數(shù)據(jù)中找出規(guī)律 20
3.1.1 準(zhǔn)備數(shù)據(jù) 20
3.1.2 定義網(wǎng)絡(luò)模型 21
3.1.3 搭建網(wǎng)絡(luò)模型 22
3.1.4 訓(xùn)練模型 23
3.1.5 可視化訓(xùn)練結(jié)果 23
3.1.6 使用及評(píng)估模型 24
3.1.7 可視化模型 25
3.2 模型是如何訓(xùn)練出來(lái)的 26
3.2.1 模型里的內(nèi)容及意義 26
3.2.2 模型內(nèi)部數(shù)據(jù)流向 27
3.3 總結(jié) 27
第4章 快速上手PyTorch 29
4.1 神經(jīng)網(wǎng)絡(luò)中的幾個(gè)基本數(shù)據(jù)類(lèi)型 30
4.2 張量類(lèi)的基礎(chǔ) 30
4.2.1 定義張量的方法 30
4.2.2 張量的類(lèi)型 32
4.2.3 張量的type()方法 33
4.3 張量與NumPy 34
4.3.1 張量與NumPy類(lèi)型數(shù)據(jù)的相互轉(zhuǎn)換 34
4.3.2 張量與NumPy各自的形狀獲取 34
4.3.3 張量與NumPy各自的切片操作 34
4.3.4 張量與NumPy類(lèi)型數(shù)據(jù)相互轉(zhuǎn)換間的陷阱 35
4.4 在CPU和GPU控制的內(nèi)存中定義張量 36
4.4.1 將CPU內(nèi)存中的張量轉(zhuǎn)化到GPU內(nèi)存中 36
4.4.2 直接在GPU內(nèi)存中定義張量 36
4.4.3 使用to()方法來(lái)指定設(shè)備 36
4.4.4 使用環(huán)境變量CUDA_VISIBLE_DEVICES來(lái)指定設(shè)備 36
4.5 生成隨機(jī)值張量 37
4.5.1 設(shè)置隨機(jī)值種子 37
4.5.2 按照指定形狀生成隨機(jī)值 37
4.5.3 生成線(xiàn)性空間的隨機(jī)值 37
4.5.4 生成對(duì)數(shù)空間的隨機(jī)值 38
4.5.5 生成未初始化的矩陣 38
4.5.6 更多的隨機(jī)值生成函數(shù) 38
4.6 張量間的數(shù)學(xué)運(yùn)算 38
4.6.1 PyTorch的運(yùn)算函數(shù) 39
4.6.2 PyTorch的自變化運(yùn)算函數(shù) 39
4.7 張量間的數(shù)據(jù)操作 39
4.7.1 用torch.reshape()函數(shù)實(shí)現(xiàn)數(shù)據(jù)維度變換 39
4.7.2 實(shí)現(xiàn)張量數(shù)據(jù)的矩陣轉(zhuǎn)置 40
4.7.3 view()方法與contiguous()方法 40
4.7.4 用torch.cat()函數(shù)實(shí)現(xiàn)數(shù)據(jù)連接 41
4.7.5 用torch.chunk()函數(shù)實(shí)現(xiàn)數(shù)據(jù)均勻分割 41
4.7.6 用torch.split()函數(shù)實(shí)現(xiàn)數(shù)據(jù)不均勻分割 42
4.7.7 用torch.gather()函數(shù)對(duì)張量數(shù)據(jù)進(jìn)行檢索 42
4.7.8 按照指定閾值對(duì)張量進(jìn)行過(guò)濾 42
4.7.9 找出張量中的非零值索引 43
4.7.10 根據(jù)條件進(jìn)行多張量取值 43
4.7.11 根據(jù)閾值進(jìn)行數(shù)據(jù)截?cái)唷?3
4.7.12 獲取數(shù)據(jù)中*大值、*小值的索引 43
4.8 Variable類(lèi)型與自動(dòng)微分模塊 44
4.8.1 自動(dòng)微分模塊簡(jiǎn)介 44
4.8.2 Variable對(duì)象與張量對(duì)象之間的轉(zhuǎn)化 44
4.8.3 用no_grad()與enable_grad()控制梯度計(jì)算 45
4.8.4 函數(shù)torch.no_grad()介紹 45
4.8.5 函數(shù)enable_grad()與no_grad()的嵌套 46
4.8.6 用set_grad_enabled()函數(shù)統(tǒng)一管理梯度計(jì)算 47
4.8.7 Variable對(duì)象的grad_fn屬性 47
4.8.8 Variable對(duì)象的is_leaf屬性 48
4.8.9 用backward()方法自動(dòng)求導(dǎo) 48
4.8.10 自動(dòng)求導(dǎo)的作用 49
4.8.11 用detach()方法將Variable對(duì)象分離成葉子節(jié)點(diǎn) 49
4.8.12 volatile屬性擴(kuò)展 50
4.9 定義模型結(jié)構(gòu)的步驟與方法 50
4.9.1 代碼實(shí)現(xiàn): Module類(lèi)的使用方法 50
4.9.2 模型中的參數(shù)Parameters類(lèi) 52
4.9.3 為模型添加參數(shù) 53
4.9.4 從模型中獲取參數(shù) 53
4.9.5 保存與載入模型 56
4.9.6 模型結(jié)構(gòu)中的鉤子函數(shù) 57
4.10 模型的網(wǎng)絡(luò)層 58
第5章 神經(jīng)網(wǎng)絡(luò)的基本原理與實(shí)現(xiàn) 59
5.1 了解深度學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò)與神經(jīng)元 60
5.1.1 了解單個(gè)神經(jīng)元 60
5.1.2 生物神經(jīng)元與計(jì)算機(jī)神經(jīng)元模型的結(jié)構(gòu)相似性 62
5.1.3 生物神經(jīng)元與計(jì)算機(jī)神經(jīng)元模型的工作流程相似性 63
5.1.4 神經(jīng)網(wǎng)絡(luò)的形成 63
5.2 深度學(xué)習(xí)中的基礎(chǔ)神經(jīng)網(wǎng)絡(luò)模型 63
5.3 什么是全連接神經(jīng)網(wǎng)絡(luò) 64
5.3.1 全連接神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 64
5.3.2 實(shí)例2:分析全連接神經(jīng)網(wǎng)絡(luò)中每個(gè)神經(jīng)元的作用 64
5.3.3 全連接神經(jīng)網(wǎng)絡(luò)的擬合原理 66
5.3.4 全連接神經(jīng)網(wǎng)絡(luò)的設(shè)計(jì)思想 67
5.4 激活函數(shù)——加入非線(xiàn)性因素,彌補(bǔ)線(xiàn)性模型缺陷 68
5.4.1 Sigmoid函數(shù) 68
5.4.2 tanh函數(shù) 69
5.4.3 ReLU函數(shù) 70
5.4.4 激活函數(shù)的多種形式 72
5.4.5 擴(kuò)展1:更好的激活函數(shù)(Swish與Mish) 73
5.4.6 擴(kuò)展2:更適合NLP任務(wù)的激活函數(shù)(GELU) 74
5.5 激活函數(shù)總結(jié) 75
5.6 訓(xùn)練模型的步驟與方法 76
5.7 神經(jīng)網(wǎng)絡(luò)模塊(nn)中的損失函數(shù) 76
5.7.1 L1損失函數(shù) 76
5.7.2 均值平方差(MSE)損失函數(shù) 77
5.7.3 交叉熵?fù)p失(CrossEntropyLoss)函數(shù) 77
5.7.4 其他的損失函數(shù) 78
5.7.5 總結(jié):損失算法的選取 79
5.8 Softmax算法——處理分類(lèi)問(wèn)題 79
5.8.1 什么是Softmax 80
5.8.2 Softmax原理 80
5.8.3 常用的Softmax接口 80
5.8.4 實(shí)例3:Softmax與交叉熵的應(yīng)用 81
5.8.5 總結(jié):更好地認(rèn)識(shí)Softmax 82
5.9 優(yōu)化器模塊 82
5.9.1 了解反向傳播與BP算法 82
5.9.2 優(yōu)化器與梯度下降 83
5.9.3 優(yōu)化器的類(lèi)別 83
5.9.4 優(yōu)化器的使用方法 83
5.9.5 查看優(yōu)化器的參數(shù)結(jié)構(gòu) 84
5.9.6 常用的優(yōu)化器——Adam 85
5.9.7 更好的優(yōu)化器——Ranger 85
5.9.8 如何選取優(yōu)化器 85
5.10 退化學(xué)習(xí)率——在訓(xùn)練的速度與精度之間找到平衡 86
5.10.1 設(shè)置學(xué)習(xí)率的方法——退化學(xué)習(xí)率 86
5.10.2 退化學(xué)習(xí)率接口(lr_scheduler) 87
5.10.3 使用lr_scheduler接口實(shí)現(xiàn)多種退化學(xué)習(xí)率 88
5.11 實(shí)例4:預(yù)測(cè)泰坦尼克號(hào)船上的生存乘客 91
5.11.1 載入樣本 91
5.11.2 樣本的特征分析——離散數(shù)據(jù)與連續(xù)數(shù)據(jù) 92
5.11.3 處理樣本中的離散數(shù)據(jù)和Nan值 93
5.11.4 分離樣本和標(biāo)簽并制作成數(shù)據(jù)集 95
5.11.5 定義Mish激活函數(shù)與多層全連接網(wǎng)絡(luò) 96
5.11.6 訓(xùn)練模型并輸出結(jié)果 97
第二篇 基礎(chǔ)——神經(jīng)網(wǎng)絡(luò)的監(jiān)督訓(xùn)練與無(wú)監(jiān)督訓(xùn)練
第6章 實(shí)例5:識(shí)別黑白圖中的服裝圖案 101
6.1 熟悉樣本:了解Fashion-MNIST數(shù)據(jù)集 102
6.1.1 Fashion-MNIST的起源 102
6.1.2 Fashion-MNIST的結(jié)構(gòu) 102
6.1.3 手動(dòng)下載Fashion-MNIST數(shù)據(jù)集 103
6.1.4 代碼實(shí)現(xiàn):自動(dòng)下載Fashion-MNIST數(shù)據(jù)集 103
6.1.5 代碼實(shí)現(xiàn):讀取及顯示Fashion-MNIST中的數(shù)據(jù) 104
6.2 制作批次數(shù)據(jù)集 105
6.2.1 數(shù)據(jù)集封裝類(lèi)DataLoader 105
6.2.2 代碼實(shí)現(xiàn):按批次封裝Fashion-MNIST數(shù)據(jù)集 106
6.2.3 代碼實(shí)現(xiàn):讀取批次數(shù)據(jù)集 107
6.3 構(gòu)建并訓(xùn)練模型 108
6.3.1 代碼實(shí)現(xiàn):定義模型類(lèi) 108
6.3.2 代碼實(shí)現(xiàn):定義損失的計(jì)算方法及優(yōu)化器 110
6.3.3 代碼實(shí)現(xiàn):訓(xùn)練模型 110
6.3.4 代碼實(shí)現(xiàn):保存模型 111
6.4 加載模型,并用其進(jìn)行預(yù)測(cè) 111
6.5 評(píng)估模型 112
6.6 擴(kuò)展:多顯卡并行訓(xùn)練 113
6.6.1 代碼實(shí)現(xiàn):多顯卡訓(xùn)練 113
6.6.2 多顯卡訓(xùn)練過(guò)程中,保存與讀取模型文件的注意事項(xiàng) 115
6.6.3 在切換設(shè)備環(huán)境時(shí),保存與讀取模型文件的注意事項(xiàng) 116
6.6.4 處理顯存殘留問(wèn)題 116
第7章 監(jiān)督學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò) 119
7.1 從視覺(jué)的角度理解卷積神經(jīng)網(wǎng)絡(luò) 120
7.1.1 生物視覺(jué)系統(tǒng)原理 120
7.1.2 微積分 120
7.1.3 離散微分與離散積分 120
7.1.4 視覺(jué)神經(jīng)網(wǎng)絡(luò)中的離散積分 121
7.2 卷積神經(jīng)網(wǎng)絡(luò)的結(jié)構(gòu) 121
7.2.1 卷積神經(jīng)網(wǎng)絡(luò)的工作過(guò)程 122
7.2.2 卷積神經(jīng)網(wǎng)絡(luò)與全連接網(wǎng)絡(luò)的區(qū)別 123
7.2.3 了解1D卷積、2D卷積和3D卷積 123
7.2.4 實(shí)例分析:Sobel算子的原理 123
7.2.5 深層神經(jīng)網(wǎng)絡(luò)中的卷積核 126
7.2.6 理解卷積的數(shù)學(xué)意義——卷積分 126
7.3 卷積神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 127
7.3.1 了解卷積接口 127
7.3.2 卷積操作的類(lèi)型 129
7.3.3 卷積參數(shù)與卷積結(jié)果的計(jì)算規(guī)則 130
7.3.4 實(shí)例6:卷積函數(shù)的使用 130
7.3.5 實(shí)例7:使用卷積提取圖片的輪廓 135
7.4 深層卷積神經(jīng)網(wǎng)絡(luò) 138
7.4.1 深層卷積神經(jīng)網(wǎng)絡(luò)組成 138
7.4.2 池化操作 140
7.4.3 了解池化接口 140
7.4.4 實(shí)例8:池化函數(shù)的使用 141
7.4.5 實(shí)例9:搭建卷積神經(jīng)網(wǎng)絡(luò) 143
7.5 循環(huán)神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu) 145
7.5.1 了解人的記憶原理 145
7.5.2 循環(huán)神經(jīng)網(wǎng)絡(luò)的應(yīng)用領(lǐng)域 146
7.5.3 循環(huán)神經(jīng)網(wǎng)絡(luò)的正向傳播過(guò)程 147
7.5.4 BP算法與BPTT算法的原理 148
7.5.5 實(shí)例10:簡(jiǎn)單循環(huán)神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn)——設(shè)計(jì)一個(gè)退位減法器 149
7.6 常見(jiàn)的循環(huán)神經(jīng)網(wǎng)絡(luò)單元及結(jié)構(gòu) 154
7.6.1 長(zhǎng)短記憶(LSTM)單元 155
7.6.2 門(mén)控循環(huán)單元(GRU) 157
7.6.3 只有忘記門(mén)的LSTM(JANET)單元 158
7.6.4 獨(dú)立循環(huán)(IndRNN)單元 158
7.6.5 雙向RNN結(jié)構(gòu) 159
7.7 實(shí)例11:用循環(huán)神經(jīng)網(wǎng)絡(luò)訓(xùn)練語(yǔ)言模型 160
7.7.1 什么是語(yǔ)言模型 161
7.7.2 詞表與詞向量 161
7.7.3 詞向量的原理與實(shí)現(xiàn) 161
7.7.4 NLP中多項(xiàng)式分布 162
7.7.5 循環(huán)神經(jīng)網(wǎng)絡(luò)的實(shí)現(xiàn) 163
7.7.6 實(shí)現(xiàn)語(yǔ)言模型的思路與步驟 164
7.7.7 代碼實(shí)現(xiàn):準(zhǔn)備樣本 165
7.7.8 代碼實(shí)現(xiàn):構(gòu)建循環(huán)神經(jīng)網(wǎng)絡(luò)(RNN)模型 167
7.7.9 代碼實(shí)現(xiàn):實(shí)例化模型類(lèi),并訓(xùn)練模型 168
7.7.10 代碼實(shí)現(xiàn):運(yùn)行模型生成句子 171
7.8 過(guò)擬合問(wèn)題及優(yōu)化技巧 172
7.8.1 實(shí)例12:訓(xùn)練具有過(guò)擬合問(wèn)題的模型 172
7.8.2 改善模型過(guò)擬合的方法 175
7.8.3 了解正則化 175
7.8.4 實(shí)例13:用L2正則改善模型的過(guò)擬合狀況 176
7.8.5 實(shí)例14:通過(guò)增大數(shù)據(jù)集改善模型的過(guò)擬合狀況 178
7.8.6 Dropout方法 179
7.8.7 實(shí)例15: 通過(guò)Dropout方法改善模型的過(guò)擬合狀況 180
7.8.8 全連接網(wǎng)絡(luò)的深淺與泛化能力的聯(lián)系 182
7.8.9 了解批量歸一化(BN)算法 182
7.8.10 實(shí)例16: 手動(dòng)實(shí)現(xiàn)批量歸一化的計(jì)算方法 185
7.8.11 實(shí)例17: 通過(guò)批量歸一化方法改善模型的過(guò)擬合狀況 187
7.8.12 使用批量歸一化方法時(shí)的注意 事項(xiàng) 188
7.8.13 擴(kuò)展:多種批量歸一化算法介紹 188
7.9 神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制 189
7.9.1 注意力機(jī)制的實(shí)現(xiàn) 189
7.9.2 注意力機(jī)制的軟、硬模式 190
7.9.3 注意力機(jī)制模型的原理 190
7.9.4 多頭注意力機(jī)制 191
7.9.5 自注意力機(jī)制 192
7.10 實(shí)例18:利用注意力循環(huán)神經(jīng)網(wǎng)絡(luò)對(duì)圖片分類(lèi) 192
7.10.1 循環(huán)神經(jīng)網(wǎng)絡(luò)處理圖片分類(lèi)任務(wù)的原理 192
7.10.2 代碼實(shí)現(xiàn):搭建LSTM網(wǎng)絡(luò)模型 193
7.10.3 代碼實(shí)現(xiàn):構(gòu)建注意力機(jī)制類(lèi) 193
7.10.4 代碼實(shí)現(xiàn):構(gòu)建輸入數(shù)據(jù)并訓(xùn)練模型 196
7.10.5 使用并評(píng)估模型 197
7.10.6 擴(kuò)展1:使用梯度剪輯技巧優(yōu)化訓(xùn)練過(guò)程 197
7.10.7 擴(kuò)展2:使用JANET單元完成RNN 198
7.10.8 擴(kuò)展3:使用IndRNN單元實(shí)現(xiàn)RNN 198

第8章 無(wú)監(jiān)督學(xué)習(xí)中的神經(jīng)網(wǎng)絡(luò) 199
8.1 快速了解信息熵 200
8.2 通用的無(wú)監(jiān)督模型——自編碼神經(jīng)網(wǎng)絡(luò)與對(duì)抗神經(jīng)網(wǎng)絡(luò) 205
8.3 自編碼神經(jīng)網(wǎng)絡(luò) 206
8.4 實(shí)例19:用變分自編碼神經(jīng)網(wǎng)絡(luò)模型生成模擬數(shù)據(jù) 208
8.5 實(shí)例20:用條件變分自編碼神經(jīng)網(wǎng)絡(luò)生成可控模擬數(shù)據(jù) 216
8.6 對(duì)抗神經(jīng)網(wǎng)絡(luò) 219
8.7 實(shí)例21:用WGAN-gp模型生成模擬數(shù)據(jù) 226
8.8 實(shí)例22:用條件GAN生成可控模擬數(shù)據(jù) 239
8.9 實(shí)例23:實(shí)現(xiàn)帶有W散度的GAN——WGAN-div模型 241
8.10 散度在神經(jīng)網(wǎng)絡(luò)中的應(yīng)用 243
8.11 實(shí)例25:用*大化深度互信息模型執(zhí)行圖片搜索器 253

第9章 快速了解圖神經(jīng)網(wǎng)絡(luò)——少量樣本也可以訓(xùn)練模型 269
9.1 圖神經(jīng)網(wǎng)絡(luò)的相關(guān)基礎(chǔ)知識(shí) 270
9.2 矩陣的基礎(chǔ) 272
9.3 鄰接矩陣的幾種操作 275
9.4 實(shí)例26:用圖卷積神經(jīng)網(wǎng)絡(luò)為論文分類(lèi) 278
9.5 圖卷積神經(jīng)網(wǎng)絡(luò) 290
9.6 擴(kuò)展實(shí)例:用Multi-sample Dropout優(yōu)化模型的訓(xùn)練速度 291
9.7 從圖神經(jīng)網(wǎng)絡(luò)的視角看待深度學(xué)習(xí) 294
9.8 圖神經(jīng)網(wǎng)絡(luò)使用拉普拉斯矩陣的原因 295

第 10章 基于空間域的圖神經(jīng)網(wǎng)絡(luò)實(shí)現(xiàn) 297
10.1 重新認(rèn)識(shí)圖卷積神經(jīng)網(wǎng)絡(luò) 298
10.2 實(shí)例27:用圖注意力神經(jīng)網(wǎng)絡(luò)為論文分類(lèi) 300
10.3 圖神經(jīng)網(wǎng)絡(luò)常用庫(kù)——DGL庫(kù) 305
10.4 DGLGraph圖的基本操作 308
10.5 實(shí)例28:用帶有殘差結(jié)構(gòu)的多層GAT模型實(shí)現(xiàn)論文分類(lèi) 318
10.6 圖卷積模型的缺陷 327
10.7 實(shí)例29:用簡(jiǎn)化圖卷積模型實(shí)現(xiàn)論文分類(lèi) 329
10.8 實(shí)例30:用圖濾波神經(jīng)網(wǎng)絡(luò)模型實(shí)現(xiàn)論文分類(lèi) 334
10.9 實(shí)例31:用深度圖互信息模型實(shí)現(xiàn)論文分類(lèi) 337
10.10 實(shí)例32:用圖同構(gòu)網(wǎng)絡(luò)模型實(shí)現(xiàn)論文分類(lèi) 344
10.11 實(shí)例33:用APPNP模型實(shí)現(xiàn)論文分類(lèi) 347
10.12 實(shí)例34:用JKNet模型實(shí)現(xiàn)論文分類(lèi) 351
10.13 總結(jié) 355

展開(kāi)全部

PyTorch深度學(xué)習(xí)和圖神經(jīng)網(wǎng)絡(luò) 卷1 基礎(chǔ)知識(shí) 作者簡(jiǎn)介

李金洪, 精通C、Python、Java語(yǔ)言,擅長(zhǎng)神經(jīng)網(wǎng)絡(luò)、算法、協(xié)議分析、移動(dòng)互聯(lián)網(wǎng)安全架構(gòu)等技術(shù),先后擔(dān)任過(guò)CAD算法工程師、架構(gòu)師、項(xiàng)目經(jīng)理、部門(mén)經(jīng)理等職位。參與過(guò)深度學(xué)習(xí)領(lǐng)域某移動(dòng)互聯(lián)網(wǎng)后臺(tái)的OCR項(xiàng)目,某娛樂(lè)節(jié)目機(jī)器人的語(yǔ)音識(shí)別、聲紋識(shí)別項(xiàng)目,金融領(lǐng)域的若干分類(lèi)項(xiàng)目。

暫無(wú)評(píng)論……
書(shū)友推薦
本類(lèi)暢銷(xiāo)
返回頂部
中圖網(wǎng)
在線(xiàn)客服
主站蜘蛛池模板: 免费一级毛片清高播放 | 国产欧美va欧美va香蕉在线观 | 久久天天躁狠狠躁狠狠躁 | 日韩一级欧美一级一级国产 | 国产va免费精品 | 国产欧美一区视频在线观看 | 日韩欧美中字 | 久久99热精品免费观看欧美 | 国产精品二区三区免费播放心 | 精品理论片 | 久久精品99无色码中文字幕 | 精品久久一区二区 | aaa级精品久久久国产片 | 久久青草视频 | 久久99久久99精品免观看动漫 | 精品日韩一区二区 | 美国性网站| 日产wv二区三区四区 | 老女人网站 | 日韩福利视频一区 | 欧洲一区二区三区在线观看 | 久久久精品视频免费观看 | 十分钟完整视频 | 国产小视频在线观看 | 免费久 | 国产在线毛片 | 久久国产精品二国产精品 | 亚洲国产天堂久久综合2261144 | 六月丁香婷婷综合 | 免费视频久久久 | 青青青草国产 | 久久国产精品二国产精品 | 四虎影院在线 | 九九涩 | 99免费在线观看视频 | 欧美一二区 | 深爱激情小说 | 久久99这里精品8国产 | 午夜激情福利在线 | 九七影院不用播放器下载 | 午夜美女视频在线观看高清 |