[ 收藏 ] [ 简体中文 ]  
臺灣貨到付款、ATM、超商、信用卡PAYPAL付款,4-7個工作日送達,999元臺幣免運費   在線留言 商品價格為新臺幣 
首頁 電影 連續劇 音樂 圖書 女裝 男裝 童裝 內衣 百貨家居 包包 女鞋 男鞋 童鞋 計算機周邊

商品搜索

 类 别:
 关键字:
    

商品分类

  • 新类目

     管理
     投资理财
     经济
     社会科学
  • 預訓練語言模型 圖書
    該商品所屬分類:圖書 ->
    【市場價】
    662-960
    【優惠價】
    414-600
    【作者】 邵浩 
    【出版社】電子工業出版社 
    【ISBN】9787121409998
    【折扣說明】一次購物滿999元台幣免運費+贈品
    一次購物滿2000元台幣95折+免運費+贈品
    一次購物滿3000元台幣92折+免運費+贈品
    一次購物滿4000元台幣88折+免運費+贈品
    【本期贈品】①優質無紡布環保袋,做工棒!②品牌簽字筆 ③品牌手帕紙巾
    版本正版全新電子版PDF檔
    您已选择: 正版全新
    溫馨提示:如果有多種選項,請先選擇再點擊加入購物車。
    *. 電子圖書價格是0.69折,例如了得網價格是100元,電子書pdf的價格則是69元。
    *. 購買電子書不支持貨到付款,購買時選擇atm或者超商、PayPal付款。付款後1-24小時內通過郵件傳輸給您。
    *. 如果收到的電子書不滿意,可以聯絡我們退款。謝謝。
    內容介紹



    出版社:電子工業出版社
    ISBN:9787121409998
    商品編碼:10031055869956

    品牌:文軒
    出版時間:2021-05-01
    代碼:109

    作者:邵浩

        
        
    "



    作  者:邵浩 著
    /
    定  價:109
    /
    出 版 社:電子工業出版社
    /
    出版日期:2021年05月01日
    /
    頁  數:216
    /
    裝  幀:平裝
    /
    ISBN:9787121409998
    /
    主編推薦
    "√梳理預訓練語言模型的發展歷史、基本概念√剖析具有代表性的預訓練語言模型的實現細節,配代碼√預訓練語言模型的評測、應用及趨勢分析"
    目錄
    ●第 1 章預訓練語言模型簡介11.1自然語言處理研究進展11.2預訓練語言模型:為什麼要預訓練41.2.1預訓練41.2.2自然語言表示51.2.3預訓練語言模型發展史及分類8第 2 章預訓練語言模型基礎知識132.1統計語言模型142.2神經網絡語言模型172.3詞向量:解決相似單詞的距離問題192.4RNN 和 LSTM 基礎252.5基於 RNN 的語言模型292.6ELMo:解決多義詞的表示問題32第 3 章Transformer 與 Attention373.1Transformer 的結構373.2Self-Attention:從全局中找到重點433.3位置編碼:為什麼有效543.4單向掩碼:另一種掩碼機制583.5代碼解讀:模型訓練技巧613.5.1訓練技巧 1:歸一化層前置623.5.2訓練技巧 2:梯度累積64第 4 章GPT 繫列模型694.1GPT 的結構:基於 Transformer Decoder694.2GPT 任務改寫:如何在不同任務中使用 GPT714.3GPT 核心代碼解讀744.4GPT-2:Zero-shot Learning 的潛力794.4.1N-shot Learning794.4.2核心思想804.4.3模型結構814.5GPT-3:Few-shot Learning 的優秀表現824.5.1看詞造句844.5.2語法糾錯844.5.3GPT-3 的爭議85第 5 章BERT 模型875.1BERT:公認的裡程碑875.2BERT 的結構:強大的特征提取能力885.3無監督訓練:掩碼語言模型和下句預測915.3.1MLM915.3.2NSP935.3.3輸入表示945.4微調訓練:適應下遊任務955.4.1句對分類955.4.2單句分類965.4.3文本問答975.4.4單句標注995.5核心代碼解讀:預訓練和微調1005.5.1BERT 預訓練模型1015.5.2BERT 微調模型1105.6BERT 總結117第 6 章後 BERT 時代的模型1196.1XLM:跨語言模型1196.1.1優化方向1196.1.2算法細節1206.1.3 小結1216.2MT-DNN:多任務融合1216.2.1優化方向1216.2.2算法細節1226.2.3 小結1246.3UniLM:獲得文本生成能力1246.3.1優化方向1246.3.2算法細節1256.3.3 小結1276.4SpanBERT:擴大掩碼範圍1276.4.1優化方向1276.4.2算法細節1286.4.3 小結1296.5XLNet:置換自回歸1306.5.1優化方向1306.5.2算法細節1306.5.3 小結1356.6ERNIE:知識圖譜1366.6.1優化方向1366.6.2算法細節1366.6.3 小結1396.7VideoBERT:多模態融合1396.7.1優化方向1396.7.2算法細節1406.7.3 小結1416.8ALBERT:參數共享1426.8.1優化方向1426.8.2算法細節1436.8.3 小結1456.9RoBERTa:更大的模型1456.9.1優化方向1456.9.2算法細節1466.9.3 小結1466.10BART:編解碼結構1466.10.1優化方向1466.10.2算法細節1476.10.3 小結1496.11T5:大一統模型1496.11.1優化方向1496.11.2算法細節1506.11.3 小結1536.12 總結154第 7 章評測和應用1577.1評測任務1577.1.1通用評測任務1577.1.2領域評測任務1627.1.3其他評測任務1677.2模型應用:Transformers 代碼實戰1687.2.1 安裝1687.2.2快速上手指南1707.2.3微調訓練1727.2.4BERT 應用1757.3模型壓縮:量化、剪枝和蒸餾1797.3.1BERT 模型分析1797.3.2 量化1817.3.3 剪枝1817.3.4 蒸餾1827.3.5 結構無損壓縮1877.4模型擴展:多模態預訓練1887.4.1單流模型1897.4.2雙流模型191第 8 章總結和展望1958.1預訓練語言模型的發展現狀1958.2預訓練語言模型的未來展望199參考文獻203
    內容簡介
    預訓練語言模型屬於人工智能領域中自然語言處理領域的一個細分。 本書主要介紹預訓練語言模型。預訓練語言模型是自然語言處理領域的重要突破,得到了越來越廣泛的關注,相關研究者和從業人員在實際應用的過程中,亟需一本理論翔實、代碼細節充分的參考書。本書詳細梳理了預訓練語言模型的基本概念和理論基礎,並通過實際代碼的講解, 闡述了具有代表性的預訓練語言模型的實現細節,非常適合需要快速、全面掌握預訓練語言模型的從業者閱讀。
    作者簡介
    邵浩 著
    "邵  浩日本國立九州大學工學博士,現就職於vivo。曾任狗尾草智能科技AI研究院院長,帶領團隊打造了AI虛擬生命產品的交互引擎。曾是上海對外經貿大學副教授,碩士生導師。是上海市靜安區首屆優秀人纔,上海市人纔發展基金獲得者,杭州市高層次人纔。任中國中文信息學會青年工作委員會委員,語言與知識計算專委會委員,中國計算機學會語音對話與聽覺專委會委員,自然語言處理專委會委員。發表論文50餘篇,獲專利10餘項,主持多項重量及省部級課題,曾在聯合國、世界貿易組織、亞利桑那州立大學、香港城市大學等機構任訪問學者。劉一烽全國中學生物理競賽保送生,清華大學電子繫碩士,曾獲學習等



    "
     
    網友評論  我們期待著您對此商品發表評論
     
    相關商品
    在線留言 商品價格為新臺幣
    關於我們 送貨時間 安全付款 會員登入 加入會員 我的帳戶 網站聯盟
    DVD 連續劇 Copyright © 2024, Digital 了得網 Co., Ltd.
    返回頂部