[ 收藏 ] [ 繁体中文 ]  
臺灣貨到付款、ATM、超商、信用卡PAYPAL付款,4-7個工作日送達,999元臺幣免運費   在線留言 商品價格為新臺幣 
首頁 電影 連續劇 音樂 圖書 女裝 男裝 童裝 內衣 百貨家居 包包 女鞋 男鞋 童鞋 計算機周邊

商品搜索

 类 别:
 关键字:
    

商品分类

  • 新类目

     管理
     投资理财
     经济
     社会科学
  • TENSORFLOW自然語言處理
    該商品所屬分類:圖書 -> 科技
    【市場價】
    817-1184
    【優惠價】
    511-740
    【作者】 圖珊·加內格達拉(ThushanGanege 
    【折扣說明】一次購物滿999元台幣免運費+贈品
    一次購物滿2000元台幣95折+免運費+贈品
    一次購物滿3000元台幣92折+免運費+贈品
    一次購物滿4000元台幣88折+免運費+贈品
    【本期贈品】①優質無紡布環保袋,做工棒!②品牌簽字筆 ③品牌手帕紙巾
    版本正版全新電子版PDF檔
    您已选择: 正版全新
    溫馨提示:如果有多種選項,請先選擇再點擊加入購物車。
    *. 電子圖書價格是0.69折,例如了得網價格是100元,電子書pdf的價格則是69元。
    *. 購買電子書不支持貨到付款,購買時選擇atm或者超商、PayPal付款。付款後1-24小時內通過郵件傳輸給您。
    *. 如果收到的電子書不滿意,可以聯絡我們退款。謝謝。
    內容介紹



    出版社:機械工業出版社
    ISBN:9787111629146
    商品編碼:51944529989

    品牌:文軒
    出版時間:2019-07-01
    代碼:99

    作者:圖珊·加內格達拉(ThushanGanege

        
        
    "
    作  者:[奧]圖珊·加內格達拉(Thushan Ganegedara) 著 馬恩馳 陸健 譯 譯
    /
    定  價:99
    /
    出 版 社:機械工業出版社
    /
    出版日期:2019年07月01日
    /
    頁  數:320
    /
    裝  幀:平裝
    /
    ISBN:9787111629146
    /
    主編推薦
    深度學習應用所使用的大部分數據是由自然語言處理(NLP)提供的,而TensorFlow是目前比較重要的深度學習框架。面對當今巨量數據流中眾多的非結構化數據,本書詳細講解如何將TensorFlow與NLP二者結合以提供有效的工具,以及如何將這些工具應用於具體的NLP任務。本書首先介紹NLP和TensorFlow的基礎知識,之後講解如何使用Word2vec及其高級擴展,以便通過創建詞嵌入將詞序列轉換為深度學習算法可用的向量。本書還介紹如何通過卷積神經網絡(CNN)和遞歸神經網絡(RNN)等經典深度學等
    目錄
    ●譯者序前言關於作者關於審閱者第1章  自然語言處理簡介 11.1  什麼是自然語言處理 11.2  自然語言處理的任務 21.3  傳統的自然語言處理方法 31.3.1  理解傳統方法 41.3.2  傳統方法的缺點 71.4  自然語言處理的深度學習方法? 81.4.1  深度學習的歷史 81.4.2  深度學習和NLP的當前狀況 91.4.3  理解一個簡單的深層模型—全連接神經網絡 101.5  本章之外的學習路線 121.6  技術工具簡介 141.6.1  工具說明 151.6.2  安裝Python和scikit-learn 151.6.3  安裝Jupyter Notebook 151.6.4  安裝TensorFlow 161.7  總結 17第2章  理解TensorFlow 182.1  TensorFlow是什麼 182.1.1  TensorFlow入門 192.1.2  TensorFlow客戶端詳細介紹 212.1.3  TensorFlow架構:當你執行客戶端時發生了什麼 212.1.4  Cafe Le TensorFlow:使用類比理解TensorFlow 232.2  輸入、變量、輸出和操作 242.2.1  在TensorFlow中定義輸入 252.2.2  在TensorFlow中定義變量 302.2.3  定義TensorFlow輸出 312.2.4  定義TensorFlow操作 312.3  使用作用域重用變量 402.4  實現我們的第一個神經網絡 422.4.1  準備數據 432.4.2  定義TensorFLow圖 432.4.3  運行神經網絡 452.5  總結 46第3章  Word2vec——學習詞嵌入 483.1  單詞的表示或含義是什麼 493.2  學習單詞表示的經典方法 493.2.1  WordNet—使用外部詞彙知識庫來學習單詞表示 503.2.2  獨熱編碼表示方式 533.2.3  TF-IDF方法 533.2.4  共現矩陣 543.3  Word2vec—基於神經網絡學習單詞表示 553.3.1  練習:queen = king – he + she嗎 563.3.2  為學習詞嵌入定義損失函數 583.4  skip-gram算法 593.4.1  從原始文本到結構化的數據 593.4.2  使用神經網絡學習詞嵌入 603.4.3  使用TensorFlow實現skip-gram 673.5  連續詞袋算法 693.6  總結 71第4章  高級Word2vec 724.1  原始skip-gram算法 724.1.1  實現原始skip-gram算法 734.1.2  比較原始skip-gram算法和改進的skip-gram算法 754.2  比較skip-gram算法和CBOW算法 754.2.1  性能比較 774.2.2  哪個更勝一籌:skip-gram還是CBOW 794.3  詞嵌入算法的擴展 814.3.1  使用unigram分布進行負采樣 814.3.2  實現基於unigram的負采樣 814.3.3  降采樣:從概率上忽視常用詞 834.3.4  實現降采樣 844.3.5  比較CBOW及其擴展算法 844.4  最近的skip-gram和CBOW的擴展算法 854.4.1  skip-gram算法的 854.4.2  結構化skip-gram算法 854.4.3  損失函數 864.4.4  連續窗口模型 874.5  GloVe:全局向量表示 884.5.1  理解GloVe 884.5.2  實現GloVe 894.6  使用Word2vec進行文檔分類 904.6.1  數據集 914.6.2  用詞向量進行文檔分類 914.6.3  實現:學習詞嵌入 924.6.4  實現:詞嵌入到文檔嵌入 924.6.5  文本聚類以及用t-SNE可視化文檔嵌入 934.6.6  查看一些特異點 944.6.7  實現:用K-means對文檔進行分類/聚類 954.7  總結 96第5章  用卷積神經網絡進行句子分類 975.1  介紹卷積神經網絡 975.1.1  CNN基礎 975.1.2  卷積神經網絡的力量 1005.2  理解卷積神經網絡 1005.2.1  卷積操作 1005.2.2  池化操作 1035.2.3  全連接層 1045.2.4  組合成完整的CNN 1055.3  練習:在MNIST數據集上用CNN進行圖片分類 1055.3.1  關於數據 1065.3.2  實現CNN 1065.3.3  分析CNN產生的預測結果 1085.4  用CNN進行句子分類 1095.4.1  CNN結構 1105.4.2  隨時間池化 1125.4.3  實現:用CNN進行句子分類 1125.5  總結 115第6章  遞歸神經網絡 1166.1  理解遞歸神經網絡 1166.1.1  前饋神經網絡的問題 1176.1.2  用遞歸神經網絡進行建模 1186.1.3  遞歸神經網絡的技術描述 1196.2  基於時間的反向傳播 1196.2.1  反向傳播的工作原理 1206.2.2  為什麼RNN不能直接使用反向傳播 1206.2.3  基於時間的反向傳播:訓練RNN 1216.2.4  截斷的BPTT:更有效地訓練RNN 1216.2.5  BPTT的:梯度消失和梯度爆炸 1226.3  RNN的應用 1236.3.1  一對一RNN 1236.3.2  一對多RNN 1236.3.3  多對一RNN 1246.3.4  多對多RNN 1246.4  用RNN產生文本 1256.4.1  定義超參數 1256.4.2  將輸入隨時間展開用於截斷的BPTT 1256.4.3  定義驗證數據集 1266.4.4  定義權重和偏置 1266.4.5  定義狀態持續變量 1276.4.6  用展開的輸入計算隱藏狀態和輸出 1276.4.7  計算損失 1286.4.8  在新文本片段的開頭重置狀態 1286.4.9  計算驗證輸出 1286.4.10  計算梯度和優化 1296.4.11  輸出新生成的文本塊 1296.5  評估RNN的文本結果輸出 1306.6  困惑度:衡量文本結果的質量 1316.7  有上下文特征的遞歸神經網絡:更長記憶的RNN 1326.7.1  RNN-CF的技術描述 1326.7.2
    內容簡介
    本書首先介紹NLP和TensorFlow基礎知識,然後介紹如何使用Word2vec(包括高級擴展)創建單詞嵌入,將單詞序列轉換為可由深度學習算法訪問的向量。關於經典深度學習算法的章節,如卷積神經網絡(CNN)和遞歸神經網絡(RNN),展示了句子分類和語言生成等重要的NLP任務。此外還介紹如何將高性能的RNN模型,如長短期記憶(long short memory, LST應用於NLP任務,你還將探索神經機器翻譯並實現一個神經機器翻譯器。
    作者簡介
    [奧]圖珊·加內格達拉(Thushan Ganegedara) 著 馬恩馳 陸健 譯 譯
    圖珊·加內格達拉(Thushan Ganegedara)目前是澳大利亞悉尼大學第三年的博士生。他專注於機器學習,喜歡深度學習。他喜歡危險,在未經測試的數據上運行算法。他還是澳大利亞初創公司AssessThreat的首席數據科學家。他在斯裡蘭卡莫拉圖瓦大學獲得了理學士學位。他經常撰寫有關機器學習的技術文章和教程。此外,他還在日常生活中遊泳來努力營造健康的生活方式。
    摘要
    在我們所處的數字信息時代,數據量呈指數級增長,在我們閱讀本書時,它也正以靠前的速度增長。此類數據大多數是與語言相關的數據(文本或語言),例如電子郵件、社交媒體帖子、電話和網絡文章。自然語言處理(NLP)有效地利用這些數據來幫助人們開展業務或日常工作。NLP已經改變了我們使用數據改善業務和生活的方式,並且這種改變將在未來一直持續。NLP最普遍的應用案例之一是虛擬助手(VA),例如Apple的Siri、Google的Assistant和 的Alexa。當你向VA詢問“瑞士大力度優惠的酒店價格”時,就會觸發一繫列復雜的NLP任務。首先,VA需要了解(解析)你的請求(例如,它需要知道你要檢索酒店價格,而不是尋找附近的公園)。VA需要做出的另一個決定是“哪家酒店便宜?”接下來,VA需要對瑞士的城市進行排名(可能基於你過去的旅行歷史)。然後,VA可能會訪問Booking.com和Agoda.com等



    "
     
    網友評論  我們期待著您對此商品發表評論
     
    相關商品
    【同作者商品】
    圖珊·加內格達拉(ThushanGanege
      本網站暫時沒有該作者的其它商品。
    有該作者的商品通知您嗎?
    請選擇作者:
    圖珊·加內格達拉(ThushanGanege
    您的Email地址
    在線留言 商品價格為新臺幣
    關於我們 送貨時間 安全付款 會員登入 加入會員 我的帳戶 網站聯盟
    DVD 連續劇 Copyright © 2024, Digital 了得網 Co., Ltd.
    返回頂部