●前言1
第一部分生成式深度學習概述
第1章生成建模11
1.1什麼是生成建模?11
1.1.1生成建模與判別建模13
1.1.2機器學習的發展14
1.1.3生成建模的興起15
1.1.4生成建模的框架18
1.2概率生成模型21
1.2.1你好,Wrodl!24
1.2.2你的第一個概率生成模型25
1.2.3樸素貝葉斯28
1.2.4你好,Wrodl!續篇31
1.3生成建模的難題33
表示學習34
1.4設置環境37
1.5小結40
第2章深度學習41
2.1結構化與非結構化數據41
2.2深度神經網絡43
Keras和TensorFlow44
2.3第一個深度神經網絡45
2.3.1加載數據46
2.3.2建立模型48
2.3.3編譯模型52
2.3.4訓練模型54
2.3.5評估模型55
2.4改進模型58
2.4.1卷積層58
2.4.2批標準化64
2.4.3Dropout層66
2.4.4結合所有層68
2.5小結71
第3章變分自動編碼器73
3.1畫展73
3.2自動編碼器76
3.2.1第一個自動編碼器77
3.2.2編碼器78
3.2.3解碼器80
3.2.4連接編碼器與解碼器82
3.2.5分析自動編碼器84
3.3變化後的畫展87
3.4構建變分自動編碼器89
3.4.1編碼器89
3.4.2損失函數94
3.4.3分析變分自動編碼器97
3.5使用VAE生成面部圖像98
3.5.1訓練VAE99
3.5.2分析VAE102
3.5.3生 面孔103
3.5.4隱空間的算術104
3.5.5面部變形106
3.6小結.107
第4章生成對抗網絡108
4.1神秘獸108
4.2生成對抗網絡簡介111
4.3第一個生成對抗網絡112
4.3.1判別器113
4.3.2生成器115
4.3.3訓練GAN119
4.4GAN面臨的難題125
4.4.1損失震蕩125
4.4.2模式收縮126
4.4.3不提供信息的損失函數126
4.4.4超參數127
4.4.5解決GAN面臨的難題127
4.5WGAN127
4.5.1Wasserstein損失128
4.5.2利普希茨約束130
4.5.3權重裁剪131
4.5.4訓練WGAN132
4.5.5分析WGAN133
4.6WGAN-GP134
4.6.1梯度懲罰損失135
4.6.2分析WGAN-GP139
4.7小結140
第二部分教機器繪畫、寫作、作曲和玩遊戲
第5章繪畫145
5.1蘋果和橙子146
5.2CycleGAN149
5.3第一個CycleGAN模型151
5.3.1簡介151
5.3.2生成器(U-Net)153
5.3.3判別器157
5.3.4編譯CycleGAN158
5.3.5訓練CycleGAN161
5.3.6分析CycleGAN162
5.4創建一個模仿莫奈作品的CycleGAN164
5.4.1生成器(ResNet)165
5.4.2分析CycleGAN166
5.5神經風格遷移168
5.5.1內容損失169
5.5.2風格損失172
5.5.3總方差損失175
5.5.4運行神經風格遷移176
5.5.5分析神經風格遷移模型177
5.6小結178
第6章寫作179
6.1壞家伙們的文學社180
6.2長短期記憶網絡181
6.3第一個LSTM網絡182
6.3.1分詞183
6.3.2建立數據集185
6.3.3LSTM架構187
6.3.4嵌入層187
6.3.5LSTM層188
6.3.6L胞190
6.4生 文本192
6.5RNN擴展196
6.5.1堆疊式循環網絡196
6.5.2門控制198
6.5.胞200
6.6編碼器-解碼器模型200
6.7問答生成器203
6.7.1問答數據集204
6.7.2模型架構205
6.7.3推斷210
6.7.4模型的結果212
6.8小結214
第7章作曲215
7.1前提知識216
音符216
7.2第一個生成音樂的RNN219
7.2.1注意力220
7.2.2使用Keras建立注意力機制222
7.2.3分析注意力RNN226
7.2.4編碼器-解碼器網絡中的注意力232
7.2.5生成復音音樂236
7.3 seGAN237
7.4第一個 seGAN238
7.5 seGAN生成器241
7.5.1和弦、風格、旋律和律動242
7.5.2小節生成器245
7.5.3彙總246
7.6評論者248
7.7分析 seGAN249
7.8小結251
第8章玩遊戲253
8.1強化學習254
OpenAIGym256
8.2世界模型架構257
8.2.1變分自動編碼器258
8.2.2MDN-RNN259
8.2.3控制器260
8.3設定261
8.4訓練過程概述262
8.5收集隨機rollout數據263
8.6訓練VAE266
8.6.1VAE架構268
8.6.2探索VAE270
8.7收集訓練RNN的數據273
8.8訓練MDN-RNN274
8.8.1MDN-RNN的架構275
8.8.2從MDN-RNN中采樣下一個z和獎勵276
8.8.3MDN-RNN的損失函數277
8.9訓練控制器279
8.9.1控制器的架構280
8.9.2CMA-ES281
8.9.3並行CMA-ES283
8.9.4控制器訓練的輸出結果285
8.10在想像環境中訓練286
8.10.1在想像環境中訓練控制器288
8.10.2在想像環境中訓練的挑戰290
8.11小結291
第9章生成建模的未來292
9.1五年的進步292
9.2Transformer294
9.2.1位置編碼295
9.2.2多頭注意力297
9.2.3解碼器299
9.2.4Transformer的分析299
9.2.5BERT301
9.2.6GPT-2301
9.2.7 seNet302
9.3圖像生成的進步303
9.3.1ProGAN303
9.3.2自我注意力GAN(SAGAN)305
9.3.3BigGAN306
9.3.4StyleGAN307
9.4生成建模的應用310
9.4.1AI藝術311
9.4.2AI音樂311
第10章總結314
作者介紹317
封面介紹317