| | | 機器學習精講 基礎、算法及應用(原書第2版) 圖書 | 該商品所屬分類:圖書 -> 大中專理科 | 【市場價】 | 1313-1904元 | 【優惠價】 | 821-1190元 | 【作者】 | 傑瑞米·瓦特雷薩·博哈尼阿格 | 【出版社】 | 機械工業出版社 | 【ISBN】 | 9787111699408 | 【折扣說明】 | 一次購物滿999元台幣免運費+贈品 一次購物滿2000元台幣95折+免運費+贈品 一次購物滿3000元台幣92折+免運費+贈品 一次購物滿4000元台幣88折+免運費+贈品
| 【本期贈品】 | ①優質無紡布環保袋,做工棒!②品牌簽字筆 ③品牌手帕紙巾
| |
版本 | 正版全新電子版PDF檔 | 您已选择: | 正版全新 | 溫馨提示:如果有多種選項,請先選擇再點擊加入購物車。*. 電子圖書價格是0.69折,例如了得網價格是100元,電子書pdf的價格則是69元。 *. 購買電子書不支持貨到付款,購買時選擇atm或者超商、PayPal付款。付款後1-24小時內通過郵件傳輸給您。 *. 如果收到的電子書不滿意,可以聯絡我們退款。謝謝。 | | | | 內容介紹 | |
出版社:機械工業出版社 ISBN:9787111699408 商品編碼:10050408223904 品牌:文軒 出版時間:2022-01-01 代碼:149 作者:傑瑞米·瓦特,雷薩·博哈尼,阿格
" 作 者:(美)傑瑞米·瓦特,(美)雷薩·博哈尼,(美)阿格洛斯·K.卡薩格羅斯 著 謝剛,楊波,任福佳 譯 定 價:149 出 版 社:機械工業出版社 出版日期:2022年01月01日 頁 數:440 裝 幀:平裝 ISBN:9787111699408 1.本書由三位美國西北大學教授共同撰寫,分享他們多年積累的課程教學和實踐經驗。該教材獲得多個有名大學專家教授聯袂推薦。2.該書英文版配套了豐富的教輔資源,包括示例代碼、數據集、幻燈片和習題解答。需要使用本書作為教材的教師可以向劍橋大學出版社北京代表處申請solutions@cambridge.org,或者在網上www.cambridge.org/watt申請。3.本書可作為大學相關專業的教材,既適合相關專業的本科生和研究生,又適合相關領域的工程師和研究人員。 ●譯者序 前言 致謝 作譯者簡介 第1章機器學習概論1 1.1引言1 1.2利用機器學習方法區分貓和狗1 1.3機器學習問題的基本體繫4 1.3.1監督學習5 1.3.2無監督學習10 1.4數學優化11 1.5小結11 第一部分數學優化 第2章零階優化技術142.1引言14 2.2零階很優性條件15 2.3全局優化方法16 2.4局部優化方法18 2.4.1概覽18 2.4.2一般框架18 2.4.3步長參數19 2.5隨機搜索20 2.5.1概覽21 2.5.2步長控制21 2.5.3基本步長規則23 2.5.4遞減步長規則24 2.5.5隨機搜索和維度災難25 2.6坐標搜索和下降法26 2.6.1坐標搜索26 2.6.2坐標下降26 2.7小結27 2.8習題28 第3章一階優化技術303.1引言30 3.2一階很優性條件30 3.2.1可手工求解的一階方程組的特例32 3.2.2坐標下降和一階很優性條件33 3.3一階泰勒級數的幾何圖形35 3.3.1超平面35 3.3.2最陡上升與最陡下降方向35 3.3.3梯度和最陡上升/下降方向36 3.4梯度的高效計算36 3.5梯度下降37 3.5.1梯度下降法的基本步長選擇39 3.5.2代價函數歷史圖中的振蕩:不一定總是壞事41 3.5.3收斂準則42 3.5.4Python實現43 3.6梯度下降法的固有缺陷43 3.6.1(負)梯度方向的缺陷是如何產生的44 3.6.2(負)梯度方向44 3.6.3梯度下降法的之字形走向45 3.6.4梯度下降法中的 “慢爬”現像46 3.7小結48 3.8習題48 第4章二階優化技術51 4.1二階很優性條件51 4.2二階泰勒級數的幾何形狀53 4.2.1單輸入二次函數的一般形狀53 4.2.2多輸入二次函數的一般形狀53 4.2.3局部曲率和二階泰勒級數54 4.3牛頓法55 4.3.1下降方向55 4.3.2算法57 4.3.3確保數值穩定性59 4.3.4步長選擇60 4.3.5牛頓法作為一種zero-finding算法60 4.3.6Python實現61 4.4牛頓法的固有缺陷62 4.4.1最小化非凸函數62 4.4.2擴展的62 4.5小結63 4.6習題63 第二部分線性學習 第5章線性回歸685.1引言68 5.2最小二乘法線性回歸68 5.2.1符號和建模68 5.2.2最小二乘代價函數69 5.2.3最小二乘代價函數的最小化70 5.2.4Python實現72 5.3最小絕對偏差74 5.3.1最小二乘對離群點的敏感性74 5.3.2用絕對誤差代替平方誤差75 5.4回歸質量度量76 5.4.1使用訓練得到的模型進行預測76 5.4.2判斷訓練模型的質量77 5.5加權回歸78 5.5.1處理副本78 5.5.2置信度加權79 5.6多輸出回歸79 5.6.1符號和建模79 5.6.2代價函數80 5.6.3Python實現81 5.7小結82 5.8習題82 5.9尾注84 第6章線性二分類問題866.1引言86 6.2邏輯回歸和交叉熵代價函數86 6.2.1符號和建模86 6.2.2擬合一個非連續階梯函數87 6.2.3邏輯sigmoid函數89 6.2.4使用最小二乘代價函數的邏輯回歸89 6.2.5使用交叉熵代價函數的邏輯回歸90 6.2.6最小化交叉熵代價函數91 6.2.7Python實現92 6.3邏輯回歸和Softmax 代價函數92 6.3.1不同的標簽,同樣的故事93 6.3.2Python實現94 6.3.3含噪聲的分類數據集96 6.4感知機96 6.4.1感知機代價函數96 6.4.2最小化感知機代價函數98 6.4.3感知機的Softma似98 6.4.4Softmax代價函數和線性可分離數據集99 6.4.5歸一化特征相關權值100 6.4.6二分類問題的正則化102 6.5支持向量機103 6.5.1邊界感知機103 6.5.2與Softmax代價函數的關繫104 6.5.3優選邊距決策邊界105 6.5.4硬邊界和軟邊界SVM問題106 6.5.5SVM和含噪數據107 6.6哪種方法能產生優選的結果108 6.7分類交叉熵代價函數108 6.7.1采用one-hot編碼的分類標簽108 6.7.2非線性度的選擇109 6.7.3代價函數的選擇109 6.8分類質量指標110 6.8.1使用訓練好的模型進行預測110 6.8.2置信度評分110 6.8.3利用準確率評價訓練模型的質量111 6.8.4利用平衡準確率評價訓練模型的質量112 6.8.5混淆矩陣和附加的質量指標113 6.9加權二分類問題114 6.9.1加權二分類115 6.9.2按置信度對點進行加權處理115 6.9.3處理類不平衡問題116 6.10小結117 6.11習題117 第7章線性多分類問題1197.1引言119 7.2One-versus-All多分類問題119 7.2.1符號和建模119 7.2.2訓練C個One-versus-All分類器119 7.2.3情形1:點在單個分類器的正側120 7.2.4情形2:點在一個以上分類器的正側121 7.2.5情形3:點不在任何分類器的正側122 7.2.6綜合應用123 7.2.7One-versus-All算法124 7.3多分類問題與感知機125 7.3.1多分類感知機代價函數125 7.3.2最小化多分類感知機代價函數126 7.3.3多分類感知機代價函數的替代公式126 7.3.4多分類感知機的正則化問題127 7.3.5多分類Softmax代價函數127 7.3.6最小化多分類 Softmax代價函數128 7.3.7多分類Softmax代價函數的替代公式128 7.3.8正則化與多分類 Softmax代價函數129 7.3.9Python實現129 7.4哪種方法能產生優選的結果130 7.5分類交叉熵代價函數131 7.5.1離散概率分布131 7.5.2指數歸一化132 7.5.3指數歸一化符號距離132 7.5.4分類和分類交叉熵代價函數133 7.6分類質量指標135 7.6.1利用訓練好的模型進行預測135 7.6.2置信度評分136 7.6.3利用準確率評價訓練模型的質量136 7.6.4處理不平衡類的高級質量指標136 7.7加權多分類問題138 7.8隨機和小批量學習138 7.9小結139 7.10習題140 第8章線性無監督學習142 8.1引言142 8.2固定的生成集、正交和投影142 8.2.1符號142 8.2.2使用固定生成集完美地表示數據143 8.2.3使用固定正交生成集完美地表示數據144 8.2.4使用固定生成集不完美地表示數據145 8.3線性自動編碼器和主成分分析145 8.3.1學習合適的生成集146 8.3.2線性自動編碼146 8.3.3主成分分析147 8.3.4Python實現149 8.4推薦繫統149 8.4.1動機149 8.4.2符號和建模150 8.5K-均值聚類150 8.5.1通過簇表示數據集151 8.5.2學習表示數據的簇152 8.6通用矩陣分解技術154 8.6.1無監督學習和矩陣分解問題154 8.6.2更多的變體156 8.7小結157 8.8習題157 8.9尾注158 8.9.1自動編碼器的最小值都是正交矩陣158 8.9.2主成分的形式推導159 第9章特征工程和特征選擇161 9.1引言161 9.2直方圖特征161 9.2.1分類數據的直方圖特征162 9.2.2文本數據的直方圖特征163 9.2.3圖像數據的直方圖特征165 9.2.4音頻數據的直方圖特征169 9.3通過標準歸一化實現特征縮放170 9.3.1標準歸一化170 9.3.2標準歸一化模型173 9.4在數據集中估算缺失值173 9.5通過PCA白化進行特征縮放173 9.5.1PCA白化:概覽174 9.5.2PCA白化:技術細節174 9.5.3PCA白化模型176 9.6利用提升法進行特征選擇176 9.6.1基於提升法的特征選擇176 9.6.2利用提升法選擇正確數量的特征177 9.6.3提升法的效率179 9.6.4從殘差視角理解提升法回歸179 9.7基於正則化的特征選擇179 9.7.1使用權值向量範數進行正則化179 9.7.2利用1正則化進行特征選擇180 9.7.3選擇合適的正則化參數181 9.7.4比較正則化和提升法182 9.8小結182 9.9習題183 第三部分非線性學習 第10章非線性特征工程原理18610.1引言186 10.2非線性回歸186 10.2.1建模原理186 10.2.2特征工程188 10.2.3Python實現190 10.3非線性多輸出回歸191 10.3.1建模原理191 0.3.2特征工程192 10.3.3Python實現193 10.4非線性二分類問題193 10.4.1建模原理193 10.4.2特征工程194 10.4.3Python實現196 10.5非線性多分類問題196 0.5.1建模原理197 10.5.2特征工程198 10.5.3Python實現199 10.6非線性無監督學習199 10.6.1建模原理199 10.6.2特征工程200 10.7小結201 10.8習題201 第11章特征學習原理20511.1引言205 1.1.1非線性特征工程的205 11.1.2內容概覽206 11.1.3特征學習的復雜度刻度盤比喻206 11.2通用逼近器207 11.2.1完美數據207 11.2.2通用逼近的生成集類比209 11.2.3常用的通用逼近器213 11.2.4容量刻度盤和優化刻度盤215 11.3真實數據的通用逼近217 11.3.1典型例子218 11.3.2再論容量刻度盤和優化刻度盤222 11.3.3新度量工具的出現224 11.3.4驗證錯誤225 11.4簡單的交叉驗證226 11.4.1概覽226 11.4.2簡單交叉驗證的問題230 11.5通過提升法進行有效的交叉驗證230 11.5.1概覽230 11.5.2技術細節232 11.5.3早停法234 11.5.4廉價但有效的增強234 11.5.5與特征選擇的相似性235 11.5.6帶有回歸的殘差視角236 11.6借助正則化的高效交叉驗證237 11.6.1概覽237 11.6.2基於早停法的正則化239 11.6.3基於正則化器的方法242 11.6.4與特征選擇正則化的相似性244 11.7測試數據245 11.7.1過擬合驗證數據245 11.7.2測試數據和測試誤差246 11.8哪一個通用逼近器在實踐中工作得優選247 11.9裝袋法交叉驗證模型248 11.9.1裝袋法回歸模型248 11.9.2裝袋法分類模型250 11.9.3實際中應該裝袋多少個模型253 11.9.4集成:裝袋法和提升法253 11.10K-折交叉驗證253 11.10.1K-折交叉驗證過程253 11.10.2K-折交叉驗證和高維線性建模255 11.11特征學習失敗256 11.12小結257 11.13習題258 第12章核方法260 12.1引言260 12.2定形通用逼近器260 12.2.1三角函數通用逼近器260 12.2.2高輸入的定形逼近器的擴展261 12.3核技巧262 12.3.1線性代數基本定理中的一個有用事實262 …… 本書通過闡述直觀且嚴謹的機器學習方法,為學生提供了研究和構建數據驅動產品所需的基本知識和實用工具。本書首先介紹幾何直覺和算法思維,為學生提供新穎和直觀的學習方法。書中強調將機器學習與實際應用相結合,案例涉及計算機視覺、自然語言處理、經濟學、神經科學、推薦繫統、物理學和生物學等領域。作者精心設計了上百張插圖,讓讀者能夠直觀地理解技術和概念;書中還配有上百個編程練習,幫助讀者理解關鍵的機器學習算法。本書配套網站提供了一繫列在線教輔資源,包括示例代碼、數據集、幻燈片和習題解答,既可用於機器學習課程教學,又可用於自學。
" | | | | | |