作 者:汪祥春 編
定 價:89
出 版 社:人民郵電出版社
出版日期:2020年10月01日
頁 數:308
裝 幀:平裝
ISBN:9787115544797
1.結構清晰。本書分3個部分,第一部分為基礎篇,包括第1章和第2章,基礎篇從AR技術原理入手,詳述了AR Foundation體繫架構及其關鍵組件核心功能;第二部分為功能技術篇,包括第3章至第11章,對AR Foundation各個功能技術點進行全面深入的剖析;第三部分為提高篇,包括第12章和第13章,主要從更高層次對AR開發中的原則及性能優化進行講解,提升讀者對AR開發的整體把握能力。2.循序漸進。本書充分考慮不同知識背景讀者的需求,按知識點循序漸進,通過大量配圖、實例進行詳細講解,即使是毫等
●第1章 AR Foundation入門 1
1.1 增強現實技術概述 1
1.1.1 AR概述 1
1.1.2 AR技術 2
1.1.3 AR技術應用 4
1.2 AR技術原理 4
1.2.1 位置追蹤 4
1.2.2 視覺校準 6
1.2.3 慣性校準 7
1.2.4 3D重建 7
1.3 AR Foundation概述 8
1.3.1 AR Foundation與ARCore/ARKit 8
1.3.2 AR Foundation支持的功能 9
1.3.3 AR Foundation功能概述 10
1.3.4 AR Foundation體繫架構概述 11
1.3.5 基本術語 11
1.4 開發環境準備 13
1.5 Android開發環境配置 16
1.5.1 插件導入 16
1.5.2 設置開發環境 17
1.5.3 搭建基礎框架 19
1.5.4 AppController 21
1.5.5 運行Helloworld 22
1.6 連接設備調試應用 24
1.6.1 打開手機USB調試 24
1.6.2 設置手機Wi-Fi調試 25
1.6.3 調試AR應用 26
1.7 iOS開發環境配置 27
1.7.1 插件導入 27
1.7.2 設置開發環境 29
1.7.3 搭建基礎框架 30
1.7.4 AppController 32
1.7.5 生成並配置XCode工程 34
1.7.6 運行Helloworld 36
第2章 AR Foundation基礎 39
2.1 AR Foundation體繫架構 39
2.1.1 AR子繫統概念 40
2.1.2 AR子繫統使用 40
2.1.3 跟蹤子繫統 41
2.2 AR Session & AR Session Origin 42
2.2.1 AR Session 42
2.2.2 AR Session Origin 44
2.3 可跟蹤對像 46
2.3.1 可跟蹤對像管理器 47
2.3.2 可跟蹤對像事件 47
2.3.3 管理可跟蹤對像 48
2.4 Session管理 49
第3章 平面檢測與參考點管理 51
3.1 平面管理 51
3.1.1 平面檢測 51
3.1.2 可視化平面 52
3.1.3 個性化渲染平面 52
3.1.4 開啟與關閉平面檢測 55
3.1.5 顯示與隱藏已檢測平面 57
3.2 射線檢測 58
3.2.1 射線檢測概念 59
3.2.2 射線檢測詳解 60
3.3 點雲與參考點 61
3.3.1 點雲 61
3.3.2 參考點 63
3.4 平面分類 66
第4章 圖像與物體檢測跟蹤 69
4.1 2D圖像檢測跟蹤 69
4.1.1 圖像跟蹤基本操作 69
4.1.2 圖像跟蹤啟用與禁用 71
4.1.3 多圖像跟蹤 72
4.1.4 運行時創建參考圖像庫 76
4.1.5 運行時切換參考圖像庫 76
4.1.6 運行時添加參考圖像 78
4.2 3D物體檢測跟蹤 80
4.2.1 獲取參考物體空間特征信息 81
4.2.2 掃描獲取物體空間特征信息的注意事項 83
4.2.3 AR Tracked Object Manager 84
4.2.4 3D物體識別跟蹤基本操作 85
4.2.5 3D物體跟蹤啟用與禁用 86
4.2.6 多物體識別跟蹤 87
第5章 人臉檢測跟蹤 90
5.1 人臉檢測基礎 90
5.1.1 人臉檢測概念 90
5.1.2 人臉檢測技術基礎 91
5.2 人臉姿態與網格 92
5.2.1 人臉姿態 92
5.2.2 人臉網格 94
5.3 人臉區域與多人臉檢測 97
5.3.1 人臉區域 97
5.3.2 多人臉檢測 100
5.4 BlendShapes 101
5.4.1 BlendShapes基礎 102
5.4.2 BlendShapes技術原理 103
5.4.3 BlendShapes的使用 105
第6章 光影效果 108
6.1 光照基礎 108
6.1.1 光源 108
6.1.2 光與材質的交互 109
6.1.3 3D渲染 110
6.2 光照估計 111
6.2.1 3D光照 111
6.2.2 光照一致性 112
6.2.3 光照估計操作 112
6.3 環境光反射 115
6.3.1 Cubemap 115
6.3.2 PBR渲染 116
6.3.3 Reflection Probe 117
6.3.4 紋理采樣過濾 118
6.3.5 使用Environment Probe 119
6.3.6 AR Environment
Probe Manager 121
6.3.7 性能優化 123
6.4 使用內置實時陰影 124
6.4.1 ShadowMap技術原理 124
6.4.2 使用實時陰影 125
6.4.3 陰影參數詳解 129
6.5 Projector陰影 130
6.5.1 ProjectorShadow 131
6.5.2 BlobShadow 133
6.5.3 參數詳解 134
6.6 Planar陰影 134
6.6.1 數學原理 135
6.6.2 代碼實現 136
6.7 偽陰影 140
6.7.1 預先制作陰影 141
6.7.2 一種準確放置物體的方法 142
第7章 持久化存儲與多人共享 145
7.1 錨點 145
7.1.1 錨點概述 145
7.1.2 使用錨點 146
7.1.3 雲錨點 146
7.2 ARWorldMap 148
7.2.1 ARWorldMap概述 148
7.2.2 ARWorldMap實例 149
7.3 協作Session 152
7.3.1 協作Session概述 153
7.3.2 協作Session實例 156
7.3.3 使用協作Session的注意事項 160
第8章 攝像機圖像獲取與自定義渲染管線 162
8.1 獲取GPU圖像 162
8.1.1 獲取攝像頭原始圖像 162
8.1.2 獲取屏幕顯示圖像 163
8.2 獲取CPU圖像 165
8.2.1 AR攝像機圖像數據流 166
8.2.2 從CPU中獲取攝像頭圖像 166
8.3 邊緣檢測原理 173
8.3.1 卷積 173
8.3.2 Sobel算子 174
8.4 CPU圖像邊緣檢測實例 175
8.5 可編程渲染管線 178
第9章 肢體動捕與遮擋 181
9.1 2D人體姿態估計 181
9.1.1 人體骨骼關鍵點檢測 181
9.1.2 使用2D人體姿態估計 182
9.2 3D人體姿態估計 185
9.2.1 使用3D人體姿態估計的方法 185
9.2.2 使用3D人體姿態估計實例 194
9.3 人形遮擋 195
9.3.1 人形遮擋原理 196
9.3.2 人形遮擋實現 198
第10章 攝像機與手勢操作 202
10.1 場景操作 202
10.1.1 場景操作方法 202
10.1.2 場景操作實例 203
10.2 同時開啟前後攝像頭 204
10.3 環境交互 207
10.3.1 射線檢測 207
10.3.2 手勢檢測 208
10.4 手勢控制 210
10.4.1 單物體操控 210
10.4.2 多物體場景操控單物體對像 212
10.4.3 多物體操控 215
10.4.4 物體操控模塊 218
第11章 3D音視頻 220
11.1 3D音頻 220
11.1.1 3D聲場原理 221
11.1.2 聲波與雙耳間的互動 222
11.1.3 頭部關聯傳導函數 223
11.1.4 頭部轉動與聲音位置 223
11.1.5 早期反射和混音 223
11.1.6 聲音遮擋 224
11.1.7 指向性 225
11.1.8 Ambisonics 225
11.1.9 下載Resonance Audio SDK 226
11.1.10 導入SDK 226
11.1.11 Resonance Audio components 226
11.1.12 使用共振音頻 227
11.1.13 Room effects 230
11.1.14 Resonance Audio API 231
11.2 3D視頻 232
11.2.1 Video Player組件 232
11.2.2 3D視頻播放實現 234
第12章 設計原則 238
12.1 移動AR帶來的挑戰 238
12.1.1 用戶必須移動 238
12.1.2 要求手持設備 239
12.1.3 要求必須將手機放在臉前 239
12.1.4 操作手勢 239
12.1.5 用戶必須打開App 240
12.2 移動AR設計準則 240
12.2.1 有用或有趣 240
12.2.2 虛擬和真實的混合必須有意義 240
12.2.3 移動 241
12.2.4 心理預期與維度轉換 241
12.2.5 環境影響 241
12.2.6 視覺效果 242
12.2.7 UI設計 242
12.2.8 沉浸式交互 243
12.3 移動AR設計指南 243
12.3.1 環境 244
12.3.2 用戶細節 245
12.3.3 虛擬內容 247
12.3.4 交互 252
12.3.5 視覺設計 256
12.3.6 真實感 260
第13章 性能優化 264
13.1 移動平臺性能優化基礎 264
13.1.1 影響性能的主要因素 264
13.1.2 AR常用調試方法 265
13.1.3 Unity Profiler 266
13.1.4 Frame Debugger 270
13.2 Unity Profiler使用 271
13.2.1 CPU使用情況分析器 272
13.2.2 渲染情況分析器 274
13.2.3 內存使用情況分析器 274
13.2.4 物理分析器 275
13.2.5 音視頻分析器 276
13.2.6 UI分析器 277
13.2.7 全局光照分析器 277
13.3 性能優化的一般步驟 278
13.3.1 收集運行數據 278
13.3.2 分析運行數據 279
13.3.3 確定問題原因 281
13.4 移動設備性能優化 283
13.5 渲染優化 284
13.5.1 渲染流程 284
13.5.2 CPU瓶頸 285
13.5.3 GPU瓶頸 288
13.6 代碼優化 289
13.6.1 內存管理 289
13.6.2 垃圾回收 290
13.6.3 對像池 293
13.7 UI優化 294
13.7.1 UI Drawcall優化 295
13.7.2 動靜分離 295
13.7.3 圖片優化 296
參考文獻 298
本書第1章介紹AR技術原理和AR Foundation概況,講述用Unity開發AR應用的環境配置及調試方法,第2章對AR Foundation體繫架構及關鍵組件、核心功能技術進行深入探討,第3章講述平面檢測識別及參考點相關知識,第4章介紹2D圖像與3D物體的檢測識別跟蹤知識,第5章介紹人臉檢測、人臉表情捕捉、人臉特效實現的相關技術,第6章介紹光照估計、環境光反射、AR陰影生成的相關知識,第7章討論雲錨點、持久化存儲、AR多人體驗共享的相關知識,第8章介紹攝像頭圖像獲取及自定義渲染管線的相關知識,第9章討論2D、3D人體姿態估計及人形遮擋的相關知識,第10章講述攝像機及手勢操作的相關知識,第11章討論在AR應用中使用3D音、視頻的相關知識,第12章講述開發AR應用的設計原則與設計指南,第13章討論AR開發時的性能問題排查及優化技術。 本書適合AR Foundation初學者、Uni等
汪祥春 編
汪祥春,計算機科學與技術專業碩士,全國信息技術標準化技術委員會、計算機圖形圖像處理及環境數據表示分技術委員會虛擬現實與增強現實標準工作組成員,中國增強現實核心技術產業聯盟成員。現從事AR技術研發及管理工作。擁有深厚的軟件工程專業背景和省部級科技項目實施管理經驗,CSDN博客專家。擁有十餘年軟件開發及項目管理經驗。