![](/c3/51944529989.jpg)
出版社:機械工業出版社 ISBN:9787111629146 商品編碼:51944529989 品牌:文軒 出版時間:2019-07-01 代碼:99 作者:圖珊·加內格達拉(ThushanGanege
"![](http://img14.360buyimg.com/cms/jfs/t1/203358/9/26405/134589/62f4a34cEcdefae53/84e082ed3b03dbc0.jpg) 作 者:[奧]圖珊·加內格達拉(Thushan Ganegedara) 著 馬恩馳 陸健 譯 譯 定 價:99 出 版 社:機械工業出版社 出版日期:2019年07月01日 頁 數:320 裝 幀:平裝 ISBN:9787111629146 深度學習應用所使用的大部分數據是由自然語言處理(NLP)提供的,而TensorFlow是目前比較重要的深度學習框架。面對當今巨量數據流中眾多的非結構化數據,本書詳細講解如何將TensorFlow與NLP二者結合以提供有效的工具,以及如何將這些工具應用於具體的NLP任務。本書首先介紹NLP和TensorFlow的基礎知識,之後講解如何使用Word2vec及其高級擴展,以便通過創建詞嵌入將詞序列轉換為深度學習算法可用的向量。本書還介紹如何通過卷積神經網絡(CNN)和遞歸神經網絡(RNN)等經典深度學等 ●譯者序前言關於作者關於審閱者第1章 自然語言處理簡介 11.1 什麼是自然語言處理 11.2 自然語言處理的任務 21.3 傳統的自然語言處理方法 31.3.1 理解傳統方法 41.3.2 傳統方法的缺點 71.4 自然語言處理的深度學習方法? 81.4.1 深度學習的歷史 81.4.2 深度學習和NLP的當前狀況 91.4.3 理解一個簡單的深層模型—全連接神經網絡 101.5 本章之外的學習路線 121.6 技術工具簡介 141.6.1 工具說明 151.6.2 安裝Python和scikit-learn 151.6.3 安裝Jupyter Notebook 151.6.4 安裝TensorFlow 161.7 總結 17第2章 理解TensorFlow 182.1 TensorFlow是什麼 182.1.1 TensorFlow入門 192.1.2 TensorFlow客戶端詳細介紹 212.1.3 TensorFlow架構:當你執行客戶端時發生了什麼 212.1.4 Cafe Le TensorFlow:使用類比理解TensorFlow 232.2 輸入、變量、輸出和操作 242.2.1 在TensorFlow中定義輸入 252.2.2 在TensorFlow中定義變量 302.2.3 定義TensorFlow輸出 312.2.4 定義TensorFlow操作 312.3 使用作用域重用變量 402.4 實現我們的第一個神經網絡 422.4.1 準備數據 432.4.2 定義TensorFLow圖 432.4.3 運行神經網絡 452.5 總結 46第3章 Word2vec——學習詞嵌入 483.1 單詞的表示或含義是什麼 493.2 學習單詞表示的經典方法 493.2.1 WordNet—使用外部詞彙知識庫來學習單詞表示 503.2.2 獨熱編碼表示方式 533.2.3 TF-IDF方法 533.2.4 共現矩陣 543.3 Word2vec—基於神經網絡學習單詞表示 553.3.1 練習:queen = king – he + she嗎 563.3.2 為學習詞嵌入定義損失函數 583.4 skip-gram算法 593.4.1 從原始文本到結構化的數據 593.4.2 使用神經網絡學習詞嵌入 603.4.3 使用TensorFlow實現skip-gram 673.5 連續詞袋算法 693.6 總結 71第4章 高級Word2vec 724.1 原始skip-gram算法 724.1.1 實現原始skip-gram算法 734.1.2 比較原始skip-gram算法和改進的skip-gram算法 754.2 比較skip-gram算法和CBOW算法 754.2.1 性能比較 774.2.2 哪個更勝一籌:skip-gram還是CBOW 794.3 詞嵌入算法的擴展 814.3.1 使用unigram分布進行負采樣 814.3.2 實現基於unigram的負采樣 814.3.3 降采樣:從概率上忽視常用詞 834.3.4 實現降采樣 844.3.5 比較CBOW及其擴展算法 844.4 最近的skip-gram和CBOW的擴展算法 854.4.1 skip-gram算法的 854.4.2 結構化skip-gram算法 854.4.3 損失函數 864.4.4 連續窗口模型 874.5 GloVe:全局向量表示 884.5.1 理解GloVe 884.5.2 實現GloVe 894.6 使用Word2vec進行文檔分類 904.6.1 數據集 914.6.2 用詞向量進行文檔分類 914.6.3 實現:學習詞嵌入 924.6.4 實現:詞嵌入到文檔嵌入 924.6.5 文本聚類以及用t-SNE可視化文檔嵌入 934.6.6 查看一些特異點 944.6.7 實現:用K-means對文檔進行分類/聚類 954.7 總結 96第5章 用卷積神經網絡進行句子分類 975.1 介紹卷積神經網絡 975.1.1 CNN基礎 975.1.2 卷積神經網絡的力量 1005.2 理解卷積神經網絡 1005.2.1 卷積操作 1005.2.2 池化操作 1035.2.3 全連接層 1045.2.4 組合成完整的CNN 1055.3 練習:在MNIST數據集上用CNN進行圖片分類 1055.3.1 關於數據 1065.3.2 實現CNN 1065.3.3 分析CNN產生的預測結果 1085.4 用CNN進行句子分類 1095.4.1 CNN結構 1105.4.2 隨時間池化 1125.4.3 實現:用CNN進行句子分類 1125.5 總結 115第6章 遞歸神經網絡 1166.1 理解遞歸神經網絡 1166.1.1 前饋神經網絡的問題 1176.1.2 用遞歸神經網絡進行建模 1186.1.3 遞歸神經網絡的技術描述 1196.2 基於時間的反向傳播 1196.2.1 反向傳播的工作原理 1206.2.2 為什麼RNN不能直接使用反向傳播 1206.2.3 基於時間的反向傳播:訓練RNN 1216.2.4 截斷的BPTT:更有效地訓練RNN 1216.2.5 BPTT的:梯度消失和梯度爆炸 1226.3 RNN的應用 1236.3.1 一對一RNN 1236.3.2 一對多RNN 1236.3.3 多對一RNN 1246.3.4 多對多RNN 1246.4 用RNN產生文本 1256.4.1 定義超參數 1256.4.2 將輸入隨時間展開用於截斷的BPTT 1256.4.3 定義驗證數據集 1266.4.4 定義權重和偏置 1266.4.5 定義狀態持續變量 1276.4.6 用展開的輸入計算隱藏狀態和輸出 1276.4.7 計算損失 1286.4.8 在新文本片段的開頭重置狀態 1286.4.9 計算驗證輸出 1286.4.10 計算梯度和優化 1296.4.11 輸出新生成的文本塊 1296.5 評估RNN的文本結果輸出 1306.6 困惑度:衡量文本結果的質量 1316.7 有上下文特征的遞歸神經網絡:更長記憶的RNN 1326.7.1 RNN-CF的技術描述 1326.7.2 本書首先介紹NLP和TensorFlow基礎知識,然後介紹如何使用Word2vec(包括高級擴展)創建單詞嵌入,將單詞序列轉換為可由深度學習算法訪問的向量。關於經典深度學習算法的章節,如卷積神經網絡(CNN)和遞歸神經網絡(RNN),展示了句子分類和語言生成等重要的NLP任務。此外還介紹如何將高性能的RNN模型,如長短期記憶(long short memory, LST應用於NLP任務,你還將探索神經機器翻譯並實現一個神經機器翻譯器。 [奧]圖珊·加內格達拉(Thushan Ganegedara) 著 馬恩馳 陸健 譯 譯 圖珊·加內格達拉(Thushan Ganegedara)目前是澳大利亞悉尼大學第三年的博士生。他專注於機器學習,喜歡深度學習。他喜歡危險,在未經測試的數據上運行算法。他還是澳大利亞初創公司AssessThreat的首席數據科學家。他在斯裡蘭卡莫拉圖瓦大學獲得了理學士學位。他經常撰寫有關機器學習的技術文章和教程。此外,他還在日常生活中遊泳來努力營造健康的生活方式。 在我們所處的數字信息時代,數據量呈指數級增長,在我們閱讀本書時,它也正以靠前的速度增長。此類數據大多數是與語言相關的數據(文本或語言),例如電子郵件、社交媒體帖子、電話和網絡文章。自然語言處理(NLP)有效地利用這些數據來幫助人們開展業務或日常工作。NLP已經改變了我們使用數據改善業務和生活的方式,並且這種改變將在未來一直持續。NLP最普遍的應用案例之一是虛擬助手(VA),例如Apple的Siri、Google的Assistant和 的Alexa。當你向VA詢問“瑞士大力度優惠的酒店價格”時,就會觸發一繫列復雜的NLP任務。首先,VA需要了解(解析)你的請求(例如,它需要知道你要檢索酒店價格,而不是尋找附近的公園)。VA需要做出的另一個決定是“哪家酒店便宜?”接下來,VA需要對瑞士的城市進行排名(可能基於你過去的旅行歷史)。然後,VA可能會訪問Booking.com和Agoda.com等 ![](https://img10.360buyimg.com/imgzone/jfs/t1/147514/7/5440/73116/5f34a3beE3ba58783/f5b2391383f5625c.jpg)
" |