書(shū)馨卡幫你省薪 2024個(gè)人購(gòu)書(shū)報(bào)告 2024中圖網(wǎng)年度報(bào)告
歡迎光臨中圖網(wǎng) 請(qǐng) | 注冊(cè)
> >
深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn)

深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn)

出版社:機(jī)械工業(yè)出版社出版時(shí)間:2020-08-01
開(kāi)本: 26cm 頁(yè)數(shù): 188頁(yè)
¥15.0(2.5折)?

預(yù)估到手價(jià)是按參與促銷(xiāo)活動(dòng)、以最優(yōu)惠的購(gòu)買(mǎi)方案計(jì)算出的價(jià)格(不含優(yōu)惠券部分),僅供參考,未必等同于實(shí)際到手價(jià)。

中 圖 價(jià):¥30.0(5.0折)定價(jià)  ¥59.9 登錄后可看到會(huì)員價(jià)
加入購(gòu)物車(chē) 收藏
運(yùn)費(fèi)6元,滿(mǎn)39元免運(yùn)費(fèi)
?新疆、西藏除外
溫馨提示:5折以下圖書(shū)主要為出版社尾貨,大部分為全新(有塑封/無(wú)塑封),個(gè)別圖書(shū)品相8-9成新、切口
有劃線標(biāo)記、光盤(pán)等附件不全詳細(xì)品相說(shuō)明>>
本類(lèi)五星書(shū)更多>
買(mǎi)過(guò)本商品的人還買(mǎi)了

深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn) 版權(quán)信息

深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn) 本書(shū)特色

適讀人群 :IT程序設(shè)計(jì)、人工智能、大數(shù)據(jù)、系統(tǒng)架構(gòu)、機(jī)器人開(kāi)發(fā)領(lǐng)域從業(yè)人員本書(shū)介紹了當(dāng)前NLP的研究熱點(diǎn),如預(yù)訓(xùn)練模型、知識(shí)的引入、遷移學(xué)習(xí)、低資源任務(wù)學(xué)習(xí)、多模態(tài)學(xué)習(xí)等,內(nèi)容介紹上由淺入深,從基礎(chǔ)環(huán)境安裝,到理論講解,再到數(shù)學(xué)推導(dǎo),然后解釋各個(gè)模型的優(yōu)缺點(diǎn),*后還有應(yīng)用場(chǎng)景介紹和代碼實(shí)戰(zhàn)。

深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn) 內(nèi)容簡(jiǎn)介

本書(shū)共8章, 主要介紹自然語(yǔ)言處理任務(wù)中的深度學(xué)習(xí)技術(shù), 包含深度學(xué)習(xí)理論基礎(chǔ)、深度學(xué)習(xí)的軟件框架、語(yǔ)言模型與詞向量、序列模型與梯度消失/爆炸、卷積神經(jīng)網(wǎng)絡(luò)在NLP領(lǐng)域的應(yīng)用、Seq2Seq模型與Attention機(jī)制、大規(guī)模預(yù)訓(xùn)練模型、預(yù)訓(xùn)練語(yǔ)言模型BERT, 還給出了自然語(yǔ)言處理技術(shù)的高級(jí)應(yīng)用和開(kāi)發(fā)實(shí)例, 并收錄了基于PyTorch深度學(xué)習(xí)框架的部分實(shí)踐項(xiàng)目。

深度學(xué)習(xí)自然語(yǔ)言處理實(shí)戰(zhàn) 目錄

◆ 目錄:◆

前言
第1章深度學(xué)習(xí)理論基礎(chǔ)
1.1深度學(xué)習(xí)概況
1.1.1深度學(xué)習(xí)的歷史
1.1.2“無(wú)所不能”的深度學(xué)習(xí)
1.2深度學(xué)習(xí)神經(jīng)網(wǎng)絡(luò)
1.2.1神經(jīng)網(wǎng)絡(luò)
1.2.2隱藏層
1.2.3梯度下降
1.2.4激活函數(shù)
1.2.5權(quán)重初始化
1.2.6正則化
1.2.7歸一化
第2章深度學(xué)習(xí)的軟件框架
2.1環(huán)境配置
2.1.1Anaconda
2.1.2英偉達(dá)GPU驅(qū)動(dòng)+CUDA+cuDNN
2.1.3PyTorch安裝
2.1.4Python IDE選擇
2.2PyTorch 入門(mén)
2.2.1Tensor基本概念
2.2.2Tensor的運(yùn)算
2.3PyTorch自動(dòng)求梯度
2.3.1基本概念
2.3.2Tensor樣例
2.3.3梯度計(jì)算
2.4PyTorch nn模塊
第3章語(yǔ)言模型與詞向量
3.1語(yǔ)言模型
3.1.1無(wú)處不在的語(yǔ)言模型
3.1.2神經(jīng)網(wǎng)絡(luò)語(yǔ)言模型
3.2詞向量
3.2.1one-hot
3.2.2word2vec
3.2.3GloVe
3.3代碼實(shí)戰(zhàn)
3.3.1任務(wù)1:應(yīng)用PyTorch搭建Skip-Gram
3.3.2任務(wù)2:基于GloVe的大規(guī)模中文語(yǔ)料的詞向量訓(xùn)練
第4章序列模型與梯度消失/爆炸
4.1循環(huán)神經(jīng)網(wǎng)絡(luò)
4.1.1模型結(jié)構(gòu)及計(jì)算過(guò)程
4.1.2應(yīng)用PyTorch搭建并訓(xùn)練RNN模型
4.2梯度消失與爆炸
4.2.1產(chǎn)生原因
4.2.2解決方法
4.3改進(jìn)方法
4.3.1LSTM
4.3.2GRU
4.4代碼實(shí)戰(zhàn):搭建LSTM/GRU的文本分類(lèi)器
第5章卷積神經(jīng)網(wǎng)絡(luò)在NLP領(lǐng)域的應(yīng)用
5.1卷積神經(jīng)網(wǎng)絡(luò)的概念
5.1.1輸入層
5.1.2卷積層
5.1.3池化層
5.1.4全連接層
5.2空洞卷積神經(jīng)網(wǎng)絡(luò)
5.2.1空洞卷積的基本定義
5.2.2空洞卷積在NLP中的應(yīng)用
5.2.3空洞卷積相關(guān)代碼
5.2.4多層卷積
5.3代碼實(shí)戰(zhàn):CNN情感分類(lèi)實(shí)戰(zhàn)
5.3.1數(shù)據(jù)處理
5.3.2程序主干部分
5.3.3模型部分
5.3.4模型訓(xùn)練與評(píng)估
第6章Seq2Seq模型與Attention機(jī)制
6.1Encoder-Decoder結(jié)構(gòu)
6.1.1Encoder
6.1.2Decoder
6.1.3Encoder-Decoder存在的問(wèn)題
6.2Attention機(jī)制
6.3Seq2Seq訓(xùn)練與預(yù)測(cè)
6.3.1模型訓(xùn)練
6.3.2模型預(yù)測(cè)
6.3.3BLEU模型評(píng)估法
6.4代碼實(shí)戰(zhàn):應(yīng)用PyTorch搭建機(jī)器翻譯模型
第7章大規(guī)模預(yù)訓(xùn)練模型
7.1ELMo
7.1.1模型結(jié)構(gòu)
7.1.2模型效果
7.1.3ELMo的優(yōu)點(diǎn)
7.1.4利用ELMo+CNN進(jìn)行分類(lèi)的示例
7.2Transformer
7.2.1Encoder端及Decoder端總覽
7.2.2Encoder端各個(gè)子模塊
7.2.3Decoder端各個(gè)子模塊
7.2.4其他模塊
7.2.5完整模型
第8章預(yù)訓(xùn)練語(yǔ)言模型BERT
8.1BERT的基本概念
8.2BERT的工作原理
8.2.1BERT的預(yù)訓(xùn)練
8.2.2BERT模型結(jié)構(gòu)
8.2.3BERT的微調(diào)
8.3BERT的可解釋性
8.4其他預(yù)訓(xùn)練模型
8.4.1XLNet
8.4.2RoBERTa
8.4.3ALBERT
8.5代碼實(shí)戰(zhàn):預(yù)訓(xùn)練模型
參考文獻(xiàn)


展開(kāi)全部
暫無(wú)評(píng)論……
書(shū)友推薦
本類(lèi)暢銷(xiāo)
編輯推薦
返回頂部
中圖網(wǎng)
在線客服