人工智能技術(shù)叢書神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 版權(quán)信息
- ISBN:9787111649687
- 條形碼:9787111649687 ; 978-7-111-64968-7
- 裝幀:平裝-膠訂
- 冊(cè)數(shù):暫無(wú)
- 重量:暫無(wú)
- 所屬分類:>
人工智能技術(shù)叢書神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 本書特色
本書是深度學(xué)習(xí)領(lǐng)域的入門教材,系統(tǒng)地整理了深度學(xué)習(xí)的知識(shí)體系,并由淺入深地闡述了深度學(xué)習(xí)的原理、模型以及方法,使得讀者能全面地掌握深度學(xué)習(xí)的相關(guān)知識(shí),并提高以深度學(xué)習(xí)技術(shù)來(lái)解決實(shí)際問(wèn)題的能力。
全書共15章,分為三個(gè)部分。
首部分為機(jī)器學(xué)習(xí)基礎(chǔ):第1章是緒論,介紹人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)的概要,使讀者全面了解相關(guān)知識(shí);第2~3章介紹機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)。
第二部分是基礎(chǔ)模型:第4~6章分別講述三種主要的神經(jīng)網(wǎng)絡(luò)模型:前饋神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò);第7章介紹神經(jīng)網(wǎng)絡(luò)的優(yōu)化與正則化方法;第8章介紹神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制和外部記憶;第9章簡(jiǎn)要介紹一些無(wú)監(jiān)督學(xué)習(xí)方法;第10章介紹一些模型獨(dú)立的機(jī)器學(xué)習(xí)方法,包括集成學(xué)習(xí)、自訓(xùn)練、協(xié)同訓(xùn)練、多任務(wù)學(xué)習(xí)、遷移學(xué)習(xí)、終身學(xué)習(xí)、元學(xué)習(xí)等。
第三部分是進(jìn)階模型:第11章介紹概率圖模型的基本概念,為后面的章節(jié)進(jìn)行鋪墊;第12章介紹兩種早期的深度學(xué)習(xí)模型:玻爾茲曼機(jī)和深度信念網(wǎng)絡(luò);第13章介紹深度生成模型,包括變分自編碼器和生成對(duì)抗網(wǎng)絡(luò);第14章介紹深度強(qiáng)化學(xué)習(xí);第15章介紹應(yīng)用十分廣泛的序列生成模型。
本書可作為高等院校人工智能、計(jì)算機(jī)、自動(dòng)化、電子和通信等相關(guān)專業(yè)的研究生或本科生教材,也可供相關(guān)領(lǐng)域的研究人員和工程技術(shù)人員參考。
本書還配備了教學(xué)PPT、編程練習(xí)以及課后習(xí)題的討論,
獲取方式:
1.微信關(guān)注“華章計(jì)算機(jī)”(微信號(hào):hzbook_jsj)
2.在后臺(tái)回復(fù)關(guān)鍵詞:蒲公英書
人工智能技術(shù)叢書神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 內(nèi)容簡(jiǎn)介
本書是深度學(xué)習(xí)領(lǐng)域的入門教材,系統(tǒng)地整理了深度學(xué)習(xí)的知識(shí)體系,由淺入深地闡述了深度學(xué)習(xí)的基礎(chǔ)知識(shí)、主要模型以及前沿研究熱點(diǎn),使得讀者能有效地掌握深度學(xué)習(xí)的相關(guān)知識(shí),并具備以深度學(xué)習(xí)技術(shù)來(lái)處理和解決大數(shù)據(jù)問(wèn)題的能力。全書共 15章,分為三個(gè)部分。部分為機(jī)器學(xué)習(xí)基礎(chǔ):第 1章是緒論,概要介紹人工智能、機(jī)器學(xué)習(xí)、深度學(xué)習(xí);第 2~3章介紹機(jī)器學(xué)習(xí)的基礎(chǔ)知識(shí)。第二部分是基礎(chǔ)模型:第 4~6章分別講述三種主要的神經(jīng)網(wǎng)絡(luò)模型:前饋神經(jīng)網(wǎng)絡(luò)、卷積神經(jīng)網(wǎng)絡(luò)和循環(huán)神經(jīng)網(wǎng)絡(luò);第 7章介紹神經(jīng)網(wǎng)絡(luò)的優(yōu)化與正則化方法;第 8章介紹神經(jīng)網(wǎng)絡(luò)中的注意力機(jī)制和外部記憶;第 9章簡(jiǎn)要介紹一些無(wú)監(jiān)督學(xué)習(xí)方法;第 10章介紹一些模型獨(dú)立的機(jī)器學(xué)習(xí)方法,包括集成學(xué)習(xí)、自訓(xùn)練、協(xié)同訓(xùn)練、多任務(wù)學(xué)習(xí)、遷移學(xué)習(xí)、終身學(xué)習(xí)、元學(xué)習(xí)等。第三部分是進(jìn)階模型:第 11章介紹概率圖模型的基本概念;第 12章介紹兩種早期的深度學(xué)習(xí)模型—玻爾茲曼機(jī)和深度信念網(wǎng)絡(luò);第 13章介紹深度生成模型,包括變分自編碼器和生成對(duì)抗網(wǎng)絡(luò);第 14章介紹深度強(qiáng)化學(xué)習(xí);第 15章介紹應(yīng)用十分廣泛的序列生成模型。本書可作為高等院校人工智能、計(jì)算機(jī)、自動(dòng)化、電子和通信等相關(guān)專業(yè)的研究生或本科生教材,也可供相關(guān)領(lǐng)域的研究人員和工程技術(shù)人員參考。
人工智能技術(shù)叢書神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 目錄
序
前言
常用符號(hào)表
**部分 機(jī)器學(xué)習(xí)基礎(chǔ)
第1章 緒論3
1.1人工智能...............................4
1.1.1人工智能的發(fā)展歷史....................5
1.1.2人工智能的流派.......................7
1.2機(jī)器學(xué)習(xí)...............................7
1.3表示學(xué)習(xí)...............................8
1.3.1局部表示和分布式表示...................9
1.3.2表示學(xué)習(xí)...........................11
1.4深度學(xué)習(xí)...............................11
1.4.1端到端學(xué)習(xí)..........................12
1.5神經(jīng)網(wǎng)絡(luò)...............................13
1.5.1人腦神經(jīng)網(wǎng)絡(luò)........................13
1.5.2人工神經(jīng)網(wǎng)絡(luò)........................14
1.5.3神經(jīng)網(wǎng)絡(luò)的發(fā)展歷史....................15
1.6本書的知識(shí)體系...........................17
1.7常用的深度學(xué)習(xí)框架.........................18
1.8總結(jié)和深入閱讀...........................20
第2章 機(jī)器學(xué)習(xí)概述23
2.1基本概念...............................24
2.2機(jī)器學(xué)習(xí)的三個(gè)基本要素......................26
2.2.1模型..............................26
2.2.2學(xué)習(xí)準(zhǔn)則...........................27
2.2.3優(yōu)化算法...........................30
2.3機(jī)器學(xué)習(xí)的簡(jiǎn)單示例——線性回歸.................33
2.3.1參數(shù)學(xué)習(xí)...........................34
2.4偏差-方差分解............................38
2.5機(jī)器學(xué)習(xí)算法的類型.........................41
2.6數(shù)據(jù)的特征表示...........................43
2.6.1傳統(tǒng)的特征學(xué)習(xí).......................44
2.6.2深度學(xué)習(xí)方法........................46
2.7評(píng)價(jià)指標(biāo)...............................46
2.8理論和定理..............................49
2.8.1PAC學(xué)習(xí)理論........................49
2.8.2沒有免費(fèi)午餐定理......................50
2.8.3奧卡姆剃刀原理.......................50
2.8.4丑小鴨定理..........................51
2.8.5歸納偏置...........................51
2.9總結(jié)和深入閱讀...........................51
第3章 線性模型
3.1線性判別函數(shù)和決策邊界......................56
3.1.1二分類............................56
3.1.2多分類............................58
3.2Logistic回歸.............................59
3.2.1參數(shù)學(xué)習(xí)...........................60
3.3Softmax回歸.............................61
3.3.1參數(shù)學(xué)習(xí)...........................62
3.4感知器.................................64
3.4.1參數(shù)學(xué)習(xí)...........................64
3.4.2感知器的收斂性.......................66
3.4.3參數(shù)平均感知器.......................67
3.4.4擴(kuò)展到多分類........................69
3.5支持向量機(jī)..............................71
3.5.1參數(shù)學(xué)習(xí)...........................73
3.5.2核函數(shù)............................74
3.5.3軟間隔............................74
3.6損失函數(shù)對(duì)比.............................75
3.7總結(jié)和深入閱讀...........................76
第二部分 基礎(chǔ)模型
第4章 前饋神經(jīng)網(wǎng)絡(luò)81
4.1神經(jīng)元.................................82
4.1.1Sigmoid型函數(shù).......................83
4.1.2ReLU函數(shù)..........................86
4.1.3Swish函數(shù)..........................88
4.1.4GELU函數(shù)..........................89
4.1.5Maxout單元.........................89
4.2網(wǎng)絡(luò)結(jié)構(gòu)...............................90
4.2.1前饋網(wǎng)絡(luò)...........................90
4.2.2記憶網(wǎng)絡(luò)...........................90
4.2.3圖網(wǎng)絡(luò)............................90
4.3前饋神經(jīng)網(wǎng)絡(luò).............................91
4.3.1通用近似定理........................93
4.3.2應(yīng)用到機(jī)器學(xué)習(xí).......................94
4.3.3參數(shù)學(xué)習(xí)...........................95
4.4反向傳播算法.............................95
4.5自動(dòng)梯度計(jì)算.............................98
4.5.1數(shù)值微分...........................99
4.5.2符號(hào)微分...........................99
4.5.3自動(dòng)微分...........................100
4.6優(yōu)化問(wèn)題...............................103
4.6.1非凸優(yōu)化問(wèn)題........................103
4.6.2梯度消失問(wèn)題........................104
4.7總結(jié)和深入閱讀...........................104
第5章 卷積神經(jīng)網(wǎng)絡(luò)109
5.1卷積..................................110
5.1.1卷積的定義..........................110
5.1.2互相關(guān)............................112
5.1.3卷積的變種..........................113
5.1.4卷積的數(shù)學(xué)性質(zhì).......................114
5.2卷積神經(jīng)網(wǎng)絡(luò).............................115
5.2.1用卷積來(lái)代替全連接....................115
5.2.2卷積層............................116
5.2.3匯聚層............................118
5.2.4卷積網(wǎng)絡(luò)的整體結(jié)構(gòu)....................119
5.3參數(shù)學(xué)習(xí)...............................120
5.3.1卷積神經(jīng)網(wǎng)絡(luò)的反向傳播算法...............120
5.4幾種典型的卷積神經(jīng)網(wǎng)絡(luò)......................121
5.4.1LeNet-5............................122
5.4.2AlexNet...........................123
5.4.3Inception網(wǎng)絡(luò)........................125
5.4.4殘差網(wǎng)絡(luò)...........................126
5.5其他卷積方式.............................127
5.5.1轉(zhuǎn)置卷積...........................127
5.5.2空洞卷積...........................129
5.6總結(jié)和深入閱讀...........................130
第6章 循環(huán)神經(jīng)網(wǎng)絡(luò)133
6.1給網(wǎng)絡(luò)增加記憶能力.........................134
6.1.1延時(shí)神經(jīng)網(wǎng)絡(luò)........................134
6.1.2有外部輸入的非線性自回歸模型..............134
6.1.3循環(huán)神經(jīng)網(wǎng)絡(luò)........................135
6.2簡(jiǎn)單循環(huán)網(wǎng)絡(luò).............................135
6.2.1循環(huán)神經(jīng)網(wǎng)絡(luò)的計(jì)算能力..................136
6.3應(yīng)用到機(jī)器學(xué)習(xí)...........................138
6.3.1序列到類別模式.......................138
6.3.2同步的序列到序列模式...................139
6.3.3異步的序列到序列模式...................139
6.4參數(shù)學(xué)習(xí)...............................140
6.4.1隨時(shí)間反向傳播算法....................141
6.4.2實(shí)時(shí)循環(huán)學(xué)習(xí)算法......................142
6.5長(zhǎng)程依賴問(wèn)題.............................143
6.5.1改進(jìn)方案...........................144
6.6基于門控的循環(huán)神經(jīng)網(wǎng)絡(luò)......................145
6.6.1長(zhǎng)短期記憶網(wǎng)絡(luò).......................145
6.6.2LSTM網(wǎng)絡(luò)的各種變體...................147
6.6.3門控循環(huán)單元網(wǎng)絡(luò)......................148
6.7深層循環(huán)神經(jīng)網(wǎng)絡(luò)..........................149
6.7.1堆疊循環(huán)神經(jīng)網(wǎng)絡(luò)......................150
6.7.2雙向循環(huán)神經(jīng)網(wǎng)絡(luò)......................150
6.8擴(kuò)展到圖結(jié)構(gòu).............................151
6.8.1遞歸神經(jīng)網(wǎng)絡(luò)........................151
6.8.2圖神經(jīng)網(wǎng)絡(luò)..........................152
6.9總結(jié)和深入閱讀...........................153
第7章 網(wǎng)絡(luò)優(yōu)化與正則化157
7.1網(wǎng)絡(luò)優(yōu)化...............................157
7.1.1網(wǎng)絡(luò)結(jié)構(gòu)多樣性.......................158
7.1.2高維變量的非凸優(yōu)化....................158
7.1.3神經(jīng)網(wǎng)絡(luò)優(yōu)化的改善方法..................160
7.2優(yōu)化算法...............................160
7.2.1小批量梯度下降.......................160
7.2.2批量大小選擇........................161
7.2.3學(xué)習(xí)率調(diào)整..........................162
7.2.4梯度估計(jì)修正........................167
7.2.5優(yōu)化算法小結(jié)........................170
7.3參數(shù)初始化..............................171
7.3.1基于固定方差的參數(shù)初始化.................172
7.3.2基于方差縮放的參數(shù)初始化.................173
7.3.3正交初始化..........................175
7.4數(shù)據(jù)預(yù)處理..............................176
7.5逐層歸一化..............................178
7.5.1批量歸一化..........................179
7.5.2層歸一化...........................181
7.5.3權(quán)重歸一化..........................182
7.5.4局部響應(yīng)歸一化.......................182
7.6超參數(shù)優(yōu)化..............................183
7.6.1網(wǎng)格搜索...........................183
7.6.2隨機(jī)搜索...........................184
7.6.3貝葉斯優(yōu)化..........................184
7.6.4動(dòng)態(tài)資源分配........................185
7.6.5神經(jīng)架構(gòu)搜索........................186
7.7網(wǎng)絡(luò)正則化..............................186
7.7.1?1和?2正則化........................187
7.7.2權(quán)重衰減...........................188
7.7.3提前停止...........................188
7.7.4丟棄法............................189
7.7.5數(shù)據(jù)增強(qiáng)...........................191
7.7.6標(biāo)簽平滑...........................191
7.8總結(jié)和深入閱讀...........................192
第8章 注意力機(jī)制與外部記憶197
8.1認(rèn)知神經(jīng)學(xué)中的注意力.......................198
8.2注意力機(jī)制..............................199
8.2.1注意力機(jī)制的變體......................201
8.3自注意力模型.............................203
8.4人腦中的記憶.............................205
8.5記憶增強(qiáng)神經(jīng)網(wǎng)絡(luò)..........................207
8.5.1端到端記憶網(wǎng)絡(luò).......................208
8.5.2神經(jīng)圖靈機(jī)..........................210
8.6基于神經(jīng)動(dòng)力學(xué)的聯(lián)想記憶.....................211
8.6.1Hopfiel網(wǎng)絡(luò)........................212
8.6.2使用聯(lián)想記憶增加網(wǎng)絡(luò)容量.................215
8.7總結(jié)和深入閱讀...........................215
第9章 無(wú)監(jiān)督學(xué)習(xí)219
9.1無(wú)監(jiān)督特征學(xué)習(xí)...........................220
9.1.1主成分分析..........................220
9.1.2稀疏編碼...........................222
9.1.3自編碼器...........................224
9.1.4稀疏自編碼器........................225
9.1.5堆疊自編碼器........................226
9.1.6降噪自編碼器........................226
9.2概率密度估計(jì).............................227
9.2.1參數(shù)密度估計(jì)........................227
9.2.2非參數(shù)密度估計(jì).......................229
9.3總結(jié)和深入閱讀...........................232
第10章 模型獨(dú)立的學(xué)習(xí)方式235
10.1集成學(xué)習(xí)...............................235
10.1.1AdaBoost算法........................237
10.2自訓(xùn)練和協(xié)同訓(xùn)練..........................240
10.2.1自訓(xùn)練............................240
10.2.2協(xié)同訓(xùn)練...........................240
10.3多任務(wù)學(xué)習(xí)..............................242
10.4遷移學(xué)習(xí)...............................245
10.4.1歸納遷移學(xué)習(xí)........................246
10.4.2轉(zhuǎn)導(dǎo)遷移學(xué)習(xí)........................247
10.5終身學(xué)習(xí)...............................249
10.6元學(xué)習(xí).................................252
10.6.1基于優(yōu)化器的元學(xué)習(xí)....................253
10.6.2模型無(wú)關(guān)的元學(xué)習(xí)......................254
10.7總結(jié)和深入閱讀...........................255
第三部分 進(jìn)階模型
第11章 概率圖模型261
11.1模型表示...............................262
11.1.1有向圖模型..........................263
11.1.2常見的有向圖模型......................264
11.1.3無(wú)向圖模型..........................267
11.1.4無(wú)向圖模型的概率分解...................267
11.1.5常見的無(wú)向圖模型......................269
11.1.6有向圖和無(wú)向圖之間的轉(zhuǎn)換.................270
11.2學(xué)習(xí)..................................271
11.2.1不含隱變量的參數(shù)估計(jì)...................271
11.2.2含隱變量的參數(shù)估計(jì)....................273
11.3推斷..................................279
11.3.1精確推斷...........................279
11.3.2近似推斷...........................282
11.4變分推斷...............................283
11.5基于采樣法的近似推斷.......................285
11.5.1采樣法............................285
11.5.2拒絕采樣...........................287
11.5.3重要性采樣..........................288
11.5.4馬爾可夫鏈蒙特卡羅方法..................289
11.6總結(jié)和深入閱讀...........................292
第12章 深度信念網(wǎng)絡(luò)297
12.1玻爾茲曼機(jī)..............................297
12.1.1生成模型...........................299
12.1.2能量*小化與模擬退火...................301
12.1.3參數(shù)學(xué)習(xí)...........................302
12.2受限玻爾茲曼機(jī)...........................304
12.2.1生成模型...........................305
12.2.2參數(shù)學(xué)習(xí)...........................307
12.2.3受限玻爾茲曼機(jī)的類型...................308
12.3深度信念網(wǎng)絡(luò).............................309
12.3.1生成模型...........................310
12.3.2參數(shù)學(xué)習(xí)...........................310
12.4總結(jié)和深入閱讀...........................313
第13章 深度生成模型317
13.1概率生成模型.............................318
13.1.1密度估計(jì)...........................318
13.1.2生成樣本...........................319
13.1.3應(yīng)用于監(jiān)督學(xué)習(xí).......................319
13.2變分自編碼器.............................319
13.2.1含隱變量的生成模型....................319
13.2.2推斷網(wǎng)絡(luò)...........................321
13.2.3生成網(wǎng)絡(luò)...........................323
13.2.4模型匯總...........................323
13.2.5再參數(shù)化...........................325
13.2.6訓(xùn)練..............................325
13.3生成對(duì)抗網(wǎng)絡(luò).............................327
13.3.1顯式密度模型和隱式密度模型...............327
13.3.2網(wǎng)絡(luò)分解...........................327
13.3.3訓(xùn)練..............................329
13.3.4一個(gè)生成對(duì)抗網(wǎng)絡(luò)的具體實(shí)現(xiàn):DCGAN..........330
13.3.5模型分析...........................330
13.3.6改進(jìn)模型...........................333
13.4總結(jié)和深入閱讀...........................336
第14章 深度強(qiáng)化學(xué)習(xí)339
14.1強(qiáng)化學(xué)習(xí)問(wèn)題.............................340
14.1.1典型例子...........................340
14.1.2強(qiáng)化學(xué)習(xí)定義........................340
14.1.3馬爾可夫決策過(guò)程......................341
14.1.4強(qiáng)化學(xué)習(xí)的目標(biāo)函數(shù)....................343
14.1.5值函數(shù)............................344
14.1.6深度強(qiáng)化學(xué)習(xí)........................345
14.2基于值函數(shù)的學(xué)習(xí)方法.......................346
14.2.1動(dòng)態(tài)規(guī)劃算法........................346
14.2.2蒙特卡羅方法........................349
14.2.3時(shí)序差分學(xué)習(xí)方法......................350
14.2.4深度Q網(wǎng)絡(luò)..........................353
14.3基于策略函數(shù)的學(xué)習(xí)方法......................354
14.3.1REINFORCE算法......................356
14.3.2帶基準(zhǔn)線的REINFORCE算法...............356
14.4演員-評(píng)論員算法...........................358
14.5總結(jié)和深入閱讀...........................360
第15章 序列生成模型365
15.1序列概率模型.............................366
15.1.1序列生成...........................367
15.2N元統(tǒng)計(jì)模型.............................368
15.3深度序列模型.............................370
15.3.1模型結(jié)構(gòu)...........................370
15.3.2參數(shù)學(xué)習(xí)...........................373
15.4評(píng)價(jià)方法...............................373
15.4.1困惑度............................373
15.4.2BLEU算法..........................374
15.4.3ROUGE算法.........................375
15.5序列生成模型中的學(xué)習(xí)問(wèn)題.....................375
15.5.1曝光偏差問(wèn)題........................376
15.5.2訓(xùn)練目標(biāo)不一致問(wèn)題....................377
15.5.3計(jì)算效率問(wèn)題........................377
15.6序列到序列模型...........................385
15.6.1基于循環(huán)神經(jīng)網(wǎng)絡(luò)的序列到序列模型...........386
15.6.2基于注意力的序列到序列模型...............387
15.6.3基于自注意力的序列到序列模型..............388
15.7總結(jié)和深入閱讀...........................390
附錄數(shù)學(xué)基礎(chǔ) 393
附錄A 線性代數(shù) 394
附錄B 微積分 404
附錄C 數(shù)學(xué)優(yōu)化 413
附錄D 概率論 420
附錄E 信息論 433
索引 439
展開全部
人工智能技術(shù)叢書神經(jīng)網(wǎng)絡(luò)與深度學(xué)習(xí) 作者簡(jiǎn)介
邱錫鵬
復(fù)旦大學(xué)計(jì)算機(jī)科學(xué)技術(shù)學(xué)院教授、博士生導(dǎo)師,于復(fù)旦大學(xué)獲得理學(xué)學(xué)士和博士學(xué)位。主要研究領(lǐng)域包括自然語(yǔ)言處理、機(jī)器學(xué)習(xí)、深度學(xué)習(xí)等,在相關(guān)領(lǐng)域的權(quán)威國(guó)際期刊、會(huì)議上發(fā)表學(xué)術(shù)論文60余篇,獲得計(jì)算語(yǔ)言學(xué)頂級(jí)國(guó)際會(huì)議ACL 2017杰出論文獎(jiǎng)、全國(guó)計(jì)算語(yǔ)言學(xué)會(huì)議CCL 2019最佳論文獎(jiǎng),2015年入選首屆中國(guó)科協(xié)青年人才托舉工程,2018年獲得中國(guó)中文信息學(xué)會(huì)“錢偉長(zhǎng)中文信息處理科學(xué)技術(shù)獎(jiǎng)青年創(chuàng)新一等獎(jiǎng)”,入選由“清華—中國(guó)工程院知識(shí)智能聯(lián)合研究中心和清華大學(xué)人工智能研究院”聯(lián)合發(fā)布的2020年人工智能(AI)全球最具影響力學(xué)者提名。該排名參考過(guò)去十年人工智能各子領(lǐng)域最有影響力的會(huì)議和期刊發(fā)表論文的引用情況,排名前10的學(xué)者當(dāng)選該領(lǐng)域當(dāng)年最具影響力學(xué)者獎(jiǎng),排名前100的其他學(xué)者獲最具影響力學(xué)者提名獎(jiǎng)。作為項(xiàng)目負(fù)責(zé)人開源發(fā)布了兩個(gè)自然語(yǔ)言處理開源系統(tǒng)FudanNLP和FastNLP,獲得了學(xué)術(shù)界和產(chǎn)業(yè)界的廣泛使用。目前擔(dān)任中國(guó)中文信息學(xué)會(huì)青年工作委員會(huì)執(zhí)行委員、計(jì)算語(yǔ)言學(xué)專委會(huì)委員、語(yǔ)言與知識(shí)計(jì)算專委會(huì)委員,中國(guó)人工智能學(xué)會(huì)青年工作委員會(huì)常務(wù)委員、自然語(yǔ)言理解專委會(huì)委員。