亚洲综合伊人,成人欧美一区二区三区视频不卡,欧美日韩在线高清,日韩国产午夜一区二区三区,大胆美女艺术,一级毛片毛片**毛片毛片,你瞅啥图片

   首頁 > 圖書 > 呼叫中心/客戶服務(wù) > 《智能問答與深度學(xué)習(xí)》

《智能問答與深度學(xué)習(xí)》

2019-01-09 14:23:30   來源:   評論:0 點擊:



購買鏈接:https://item.jd.com/12479014.html
  作者:王海良,李卓桓,林旭鳴 著
  出版社:電子工業(yè)出版社
  出版時間:2019-01-01
  版次:1  頁數(shù):268
  開本:16開 用紙:膠版紙
  印次:1 ISBN:9787121349218 包裝:平裝

  內(nèi)容簡介
  《智能問答與深度學(xué)習(xí)》面向在校學(xué)生或計算機軟件從業(yè)人員,由淺入深地介紹了人工智能在文本任務(wù)中的應(yīng)用!吨悄軉柎鹋c深度學(xué)習(xí)》不但介紹了自然語言處理、深度學(xué)習(xí)和機器閱讀理解等基礎(chǔ)知識,還簡述了信息論、人工智能等的發(fā)展過程。
  作者簡介
  王海良,Chatopera聯(lián)合創(chuàng)始人、CEO,微軟人工智能極有價值專家。畢業(yè)于北京郵電大學(xué),加入IBM工作四年,先后工作于軟件開發(fā)實驗室和創(chuàng)新中心,從2016年開始工作于創(chuàng)業(yè)公司,三角獸AI算法工程師,呤呤英語AI產(chǎn)品負責(zé)人,負責(zé)智能對話系統(tǒng)研發(fā)。
  李卓桓,PreAngel合伙人,Plug and Play投資合伙人。擁有25年編程經(jīng)驗,曾任優(yōu)酷網(wǎng)首席科學(xué)家、嘰歪網(wǎng)創(chuàng)始人,水木清華BBS站長,紫霞BBS站長。Conversational AI實踐者,熱愛滑雪、跑酷、滑雪傘等極限運動。
  林旭鳴,北京郵電大學(xué)模式識別實驗室研究生,目前的研究方向為深度學(xué)習(xí)、自然語言處理與機器閱讀理解。本科期間曾獲得國家獎學(xué)金,研究生期間多次在數(shù)據(jù)類競賽中取得Top3的成績。曾在百度、滴滴出行、微軟等公司實習(xí)。
  目錄
  1 概述1
  1.1 智能問答:讓機器更好地服務(wù)于人 1
  1.2 問答系統(tǒng)類型介紹 2
  1.2.1 基于事實的問答系統(tǒng) 3
  1.2.2 基于常見問題集的問答系統(tǒng) 3
  1.2.3 開放域的問答系統(tǒng) 4
  1.3 使用本書附帶的源碼程序 4
  1.3.1 安裝依賴軟件 4
  1.3.2 下載源碼 5
  1.3.3 執(zhí)行示例程序 5
  1.3.4 聯(lián)系我們 6
  1.4 全書結(jié)構(gòu) 6
  2 機器學(xué)習(xí)基礎(chǔ) 8
  2.1 線性代數(shù) 8
  2.1.1 標量、向量、矩陣和張量 8
  2.1.2 矩陣運算 9
  2.1.3 特殊類型的矩陣 10
  2.1.4 線性相關(guān) 11
  2.1.5 范數(shù) 12
  2.2 概率論基礎(chǔ) 12
  2.2.1 隨機變量 13
  2.2.2 期望和方差 13
  2.2.3 伯努利分布 14
  2.2.4 二項分布 14
  2.2.5 泊松分布 15
  2.2.6 正態(tài)分布 15
  2.2.7 條件概率、聯(lián)合概率和全概率 17
  2.2.8 先驗概率與后驗概率 18
  2.2.9 邊緣概率 18
  2.2.10 貝葉斯公式 18
  2.2.11 最大似然估計算法 19
  2.2.12 線性回歸模型 20
  2.2.13 邏輯斯蒂回歸模型 21
  2.3 信息論基礎(chǔ) 22
  2.3.1 熵 23
  2.3.2 聯(lián)合熵和條件熵 23
  2.3.3 相對熵與互信息 24
  2.3.4 信道和信道容量 25
  2.3.5 最大熵模型 26
  2.3.6 信息論與機器學(xué)習(xí) 29
  2.4 統(tǒng)計學(xué)習(xí) 29
  2.4.1 輸入空間、特征空間與輸出空間 30
  2.4.2 向量表示 30
  2.4.3 數(shù)據(jù)集 31
  2.4.4 從概率到函數(shù) 31
  2.4.5 統(tǒng)計學(xué)習(xí)三要素 32
  2.5 隱馬爾可夫模型 33
  2.5.1 隨機過程和馬爾可夫鏈 33
  2.5.2 隱馬爾可夫模型的定義 36
  2.5.3 三個基本假設(shè)及適用場景 37
  2.5.4 概率計算問題之直接計算 39
  2.5.5 概率計算問題之前向算法 40
  2.5.6 概率計算問題之后向算法 42
  2.5.7 預(yù)測問題之維特比算法 45
  2.5.8 學(xué)習(xí)問題之Baum-Welch算法 48
  2.6 條件隨機場模型 52
  2.6.1 超越HMM 52
  2.6.2 項目實踐 55
  2.7 總結(jié) 59
  3 自然語言處理基礎(chǔ) 60
  3.1 中文自動分詞 60
  3.1.1 有向無環(huán)圖 61
  3.1.2 最大匹配算法 63
  3.1.3 算法評測 69
  3.1.4 由字構(gòu)詞的方法 72
  3.2 詞性標注 77
  3.2.1 詞性標注規(guī)范 77
  3.2.2 隱馬爾可夫模型詞性標注 79
  3.3 命名實體識別 81
  3.4 上下文無關(guān)文法 82
  3.4.1 原理介紹 83
  3.4.2 算法淺析 83
  3.5 依存關(guān)系分析 84
  3.5.1 算法淺析 85
  3.5.2 項目實踐 92
  3.5.3 小結(jié) 94
  3.6 信息檢索系統(tǒng) 95
  3.6.1 什么是信息檢索系統(tǒng) 95
  3.6.2 衡量信息檢索系統(tǒng)的關(guān)鍵指標 95
  3.6.3 理解非結(jié)構(gòu)化數(shù)據(jù) 97
  3.6.4 倒排索引 98
  3.6.5 處理查詢 100
  3.6.6 項目實踐 102
  3.6.7 Elasticsearch 103
  3.6.8 小結(jié) 112
  3.7 問答語料 113
  3.7.1 WikiQA 113
  3.7.2 中文版保險行業(yè)語料庫Insurance QA 113
  3.8 總結(jié) 115
  4 深度學(xué)習(xí)初步 116
  4.1 深度學(xué)習(xí)簡史 116
  4.1.1 感知機 116
  4.1.2 寒冬和復(fù)蘇 117
  4.1.3 走出實驗室 118
  4.1.4 寒冬再臨 119
  4.1.5 走向大規(guī)模實際應(yīng)用 119
  4.2 基本架構(gòu) 120
  4.2.1 神經(jīng)元 121
  4.2.2 輸入層、隱藏層和輸出層 122
  4.2.3 標準符號 123
  4.3 神經(jīng)網(wǎng)絡(luò)是如何學(xué)習(xí)的 124
  4.3.1 梯度下降 124
  4.3.2 反向傳播理論 127
  4.3.3 神經(jīng)網(wǎng)絡(luò)全連接層的實現(xiàn) 130
  4.3.4 使用簡單神經(jīng)網(wǎng)絡(luò)實現(xiàn)問答任務(wù) 131
  4.4 調(diào)整神經(jīng)網(wǎng)絡(luò)超參數(shù) 136
  4.4.1 超參數(shù) 136
  4.4.2 參考建議 137
  4.5 卷積神經(jīng)網(wǎng)絡(luò)與池化 138
  4.5.1 簡介 138
  4.5.2 卷積層的前向傳播 139
  4.5.3 池化層的前向傳播 141
  4.5.4 卷積層的實現(xiàn) 141
  4.5.5 池化層的實現(xiàn) 145
  4.5.6 使用卷積神經(jīng)網(wǎng)絡(luò)實現(xiàn)問答任務(wù) 148
  4.6 循環(huán)神經(jīng)網(wǎng)絡(luò)及其變種 149
  4.6.1 簡介 149
  4.6.2 循環(huán)神經(jīng)網(wǎng)絡(luò) 149
  4.6.3 長短期記憶單元和門控循環(huán)單元 153
  4.6.4 循環(huán)神經(jīng)網(wǎng)絡(luò)的實現(xiàn) 156
  4.6.5 使用循環(huán)神經(jīng)網(wǎng)絡(luò)實現(xiàn)問答任務(wù) 159
  4.7 簡易神經(jīng)網(wǎng)絡(luò)工具包 160
  5 詞向量實現(xiàn)及應(yīng)用 161
  5.1 語言模型 161
  5.1.1 評測 162
  5.1.2 ARPA格式介紹 162
  5.1.3 項目實踐 163
  5.2 One-hot表示法 164
  5.3 詞袋模型 165
  5.4 NNLM和RNNLM 165
  5.5 word2vec 168
  5.5.1 C-BOW的原理 169
  5.5.2 Skip-gram的原理 172
  5.5.3 計算效率優(yōu)化 174
  5.5.4 項目實踐 179
  5.6 GloVe 189
  5.6.1 GloVe的原理 189
  5.6.2 GloVe與word2vec的區(qū)別和聯(lián)系 191
  5.6.3 項目實踐 193
  5.7 fastText 198
  5.7.1 fastText的原理 198
  5.7.2 fastText與word2vec的區(qū)別和聯(lián)系 200
  5.7.3 項目實踐 201
  5.8 中文近義詞工具包 204
  5.8.1 安裝 205
  5.8.2 接口 205
  5.9 總結(jié) 205
  6 社區(qū)問答中的QA匹配 206
  6.1 社區(qū)問答任務(wù)簡介 206
  6.2 孿生網(wǎng)絡(luò)模型 207
  6.3 QACNN模型 207
  6.3.1 模型構(gòu)建 207
  6.3.2 實驗結(jié)果 214
  6.4 Decomposable Attention模型 214
  6.4.1 模型介紹 214
  6.4.2 模型構(gòu)建 216
  6.5 多比較方式的比較–集成模型 216
  6.5.1 模型介紹 216
  6.5.2 模型構(gòu)建 218
  6.6 BiMPM模型 219
  6.6.1 模型介紹 219
  6.6.2 模型構(gòu)建 221
  7 機器閱讀理解 222
  7.1 完型填空型機器閱讀理解任務(wù) 222
  7.1.1 CNN/Daily Mail數(shù)據(jù)集 222
  7.1.2 Children’s Book Test(CBT)數(shù)據(jù)集 223
  7.1.3 GA Reader模型 226
  7.1.4 SA Reader模型 227
  7.1.5 AoA Reader模型 228
  7.2 答案抽取型機器閱讀理解任務(wù) 230
  7.2.1 SQuAD數(shù)據(jù)集 231
  7.2.2 MS MARCO數(shù)據(jù)集 232
  7.2.3 TriviaQA數(shù)據(jù)集 234
  7.2.4 DuReader數(shù)據(jù)集 235
  7.2.5 BiDAF模型 235
  7.2.6 R-Net模型 237
  7.2.7 S-Net模型 240
  7.3 答案選擇型機器閱讀理解任務(wù) 243
  7.4 展望 245
  參考文獻 246

相關(guān)閱讀:

分享到: 收藏

最新專題更多>>

泰兴市| 洛浦县| 高雄市| 吴堡县| 武宁县| 波密县| 阳原县| 武汉市| 正宁县| 嘉兴市| 大竹县| 宜州市| 合阳县| 射洪县| 晋宁县| 武陟县| 江西省| 策勒县| SHOW| 湖口县| 中西区| 阿合奇县| 托克逊县| 普定县| 潜江市| 清水河县| 乐业县| 长葛市| 江达县| 金乡县| 正镶白旗| 乐清市| 内丘县| 珠海市| 滦南县| 临漳县| 阳曲县| 南康市| 尖扎县| 噶尔县| 五台县|