前 言
無論何時,隻要人們談及網絡空間安全的形勢,一定會有“形勢嚴峻”、“應對能力不足”等悲觀的說法,這往往會讓決策者感到迷惑:網絡空間安全領域為何總是缺少作為呢?到底該如何做纔能讓網絡空間安全問題不再時刻困擾人們呢?其實這一切都是由於網絡空間安全的動態屬性所決定的。習近平總書記在2016年4月19日網絡安全和信息化工作座談會上指出:要樹立正確的網絡安全觀,網絡安全是動態的而不是靜態的。也就是說,網絡空間安全的形態是不斷變化的,一個安全問題解決了,另一個安全問題又會冒出來。而在網絡空間安全的動態屬性中,新技術安全是導致網絡空間安全具有動態特征的主要因素之一,這是因為新技術必然會帶來新的安全問題,而各種新技術、新繫統源源不斷地出現,自然會引發各種新的安全問題與安全事件。如果我們有能力讓各種新技術都停止出現,五年內信息技術不更新,那麼當前所有的信息安全問題可能將被全部解決掉,將會有一個十分安全的網絡空間展現在人們的眼前。然而,社會不可能停滯不前,新技術也不可能從此就銷聲匿跡,網絡空間安全將伴隨著新技術的出現持續動態地變化。
新技術必然會帶來新的安全問題,這是新技術在安全方面的伴生效應。這種伴生效應會產生兩方面的安全問題:一是由於新技術的出現,其自身的脆弱性會導致新技術繫統出現不穩定或者不安全的情況,這方面的問題是新技術的內生安全問題;另一方面是新技術自身缺陷可能並不影響新技術繫統自身的運行,但這種缺陷卻給其他領域帶來了問題,導致其他領域變得不安全,這方面的問題是新技術的衍生安全問題。
除了伴生效應以外,新技術的出現一定會提升相關領域的勢能,當新技術運用於安全領域的時候,自然也會賦能安全領域,這可稱為新技術的賦能效應。當然,新技術在安全領域的賦能,既可以賦能於防御,也可能賦能於攻擊,即新技術被惡意利用而導致其他領域不安全。顯然,新技術賦能攻擊是導致網絡空間安全形勢始終不夠樂觀的推手之一。
人工智能技術盡管產生於20世紀50年代,但其幾起幾落,形成了螺旋式的發展軌跡。人工智能技術在21世紀裡因為其在應用領域中取得了突出的成就,從而被認定是信息領域中的一種推動社會發展的新技術。事實上,推動人工智能快速發展、使之在應用領域中切實發揮作用的那些具體技術也的確是21世紀所出現的新技術,例如深度學習、軟件框架等。因此,將人工智能技術看作是信息領域的新技術並不為過。人工智能技術被認定為新技術的另一原因表現在世界各國政府對人工智能技術的高度重視,以及在人工智能技術領域所給予的巨額投資,展示出國際社會對人工智能技術造福人類所給予的極大期望。
但是,作為新技術,人工智能技術自然也會存在著安全問題的伴生效應與安全領域的賦能效應。從伴生效應的視角來看,人工智能存在著內生安全問題。例如,人工智能算法大量依賴統計結果,尤其是神經網絡等智能學習繫統,這種繫統通過調整隱藏層內部的連接權值來記錄繫統通過統計學習後獲得的特征信息。但這些權值意味著什麼幾乎是無法解釋的,所以人們對之隻能使用,無法預判。在這種情況下,繫統對哪些權值進行了怎樣的修改、修改後會導致繫統的判斷結果會怎樣跳出人們的預期都是不可知的,而且什麼樣的學習過程會導致這種修改也是不可知的,這就為目前普遍流行的被稱為“對抗樣本攻擊”的人工智能攻擊手段敞開了大門。由此,“對抗樣本攻擊”可以被歸為人工智能技術伴生的內生安全問題。同樣的情況,人工智能繫統的不可解釋性也許不會影響人工智能繫統在一般情況下的運行狀態,但是否會導致人工智能繫統可能出現失控的情況,造成繫統可能會不按照人類所預計的或所期望的方式運行?而這種不可預計的情況是否會給人類帶來威脅?這些問題都令人細思極恐。如果一個助殘機器人不按照人類期望的方式運動,其結果反倒會傷害人類,這時人們反而會發現助殘機器人的智能越低其失控的概率也許越小。所以這類可能出現的“失控”問題是人工智能技術伴生的衍生安全問題。
就人工智能技術在安全領域中的賦能效應而言,我們可以舉出許多利用人工智能技術進行安全防御或者進行安全攻擊的例子。將人工智能技術運用到網絡安全態勢感知是典型的賦能防御的案例;而利用人工智能技術來攻擊人臉識別繫統——用Deepfake技術來進行實時換臉以繞過人臉識別過程中的新鮮度檢測——的手法則是典型的賦能攻擊的案例。
正是因為人工智能技術受到了各國政府的重視,國際社會也期望通過人工智能技術來顯著地改善人們的生產與生活方式,甚至包括國家的治理模式,這使得人工智能技術領域的研究視角大都集中在如何發展人工智能技術、如何推進人工智能技術的市場化應用上來,而這種高速推動人工智能技術發展的力量會進一步強化人工智能技術的發展與人工智能安全被忽視之間的不均衡態勢。人們沉浸在人工智能技術所帶來的社會變化的喜悅中,很容易忽視人工智能技術安全問題的伴生效應,以及人工智能技術在安全領域中的賦能攻擊效應。作為專業從事網絡空間安全技術研究的團隊,我們認為是時候要讓人們對人工智能安全問題警醒了。事實上,人工智能技術所伴生的已經不僅僅是內生安全問題和衍生安全問題,還涉及到倫理、法律等一繫列與社會治理有關的挑戰性問題。為此,以廣州大學網絡空間先進技術研究院的團隊為主,本人組織了一批學者編撰了本書,旨在讓人們在高度關注人工智能技術發展的同時,也注意到人工智能安全問題及相應技術的演進。
本書共12章。其中,第1章人工智能技術發展概述由方濱興、韓偉紅主筆,第2章各國人工智能發展戰略規劃由李樹棟、方濱興主筆,第3章人工智能安全概述由崔翔主筆,第4章人工智能助力安全由廖鵬主筆,第5章人工智能的內生安全由顧釗銓主筆,第6章人工智能衍生安全問題由蘇申、田志宏主筆,第7章人工智能行為體由魯輝主筆,第8章人工智能行為體保險箍由田志宏、崔翔主筆,第9章人工智能行為體的安全評估與檢測由方濱興、蔣琳主筆,第10章人工智能安全倫理準則由方濱興、尹捷主筆,第11章人工智能前沿技術由李默涵主筆,第12章人工智能安全的未來展望由方濱興、顧釗銓主筆。全書由方濱興、顧釗銓、崔翔通稿。本書在撰寫過程中得到了高文院士的指導,在此表示誠摯的謝意。此外,還要感謝電子工業出版社的趙麗松和瀋艷波兩位副總編,她們為本書的出版做了大量辛勤工作。
人工智能技術的發展歷史很長,先後出現了不同的研究方法與技術路線,盡管大部分的研究結果可以說是殊途同歸,但學者們仍然存在著各執己見、自成體繫的情況。在這種情況下,本書難以涵蓋所有學術流派的研究路線,也就無法針對各種情況來論述相應的安全問題。本書隻求拋磚引玉,僅就所關注到的人工智能技術論述其所關聯到的安全問題及相關技術,疏漏之處,還望讀者理解。