在絕大多數現代國家,自動駕駛汽車、手術機器人、工業機器人、交易算法、個人機器人和其他人工智能實體正在被普遍使用。這些用途可以是個人的、醫療的、軍事的、商業的或工業的。當自動駕駛汽車涉及交通事故罪、手術機器人涉及醫療事故罪、交易算法涉及欺詐罪等情況發生之時,就會產生刑事責任問題。那麼,誰應對這些罪行承擔刑事責任:制造商、程序員、用戶或人工智能實體本身?
技術世界瞬息萬變。在從事簡單活動方面,機器人和計算機正更加頻繁地取代人類。隻要人類僅僅將計算機當作工具,計算機和螺絲刀、汽車或電話之間就沒有任何顯著區別。但是,隨著計算機變得越來越復雜,我們開始認為,它們為我們“思考”。當計算機從“思考機器”(thinking machine)(被編程來執行計算等特定思考過程的設備)進化成不加引號的思考機器(換言之,人工智能)之時,問題開始出現。人工智能就是機器模仿智能行為的能力。
人工智能是在計算機上模擬人類行為和認知的過程。因此,它是對整個智能思維領域本質的研究。人工智能研究開始於20世紀40年代和50年代初。從那時起,人工智能實體已經成為現代人類生活不可或缺的一部分,它的運行方式比其他普通工具復雜得多。這些實體會變成危險嗎?事實上,正如上述事件所證明的那樣,它們已經成為危險。
人工智能和機器人正在進入日常現代生活。目前,法院或監管部門正面臨上述某些問題。但是,很少有文獻全面地分析並評估具有不同程度自主權的機器人、機器或軟件的責任。
涉及人工智能繫統犯罪的責任概念尚未得到廣泛研究。先進的技術使社會面臨全新的挑戰,不僅包括技術挑戰,也包括法律挑戰。特定情況下,人工智能繫統的刑事責任理念正是這些挑戰之一,應當予以深入探討。其中的主要問題是,誰應該對涉及人工智能繫統的犯罪承擔刑事責任。答案可能包括程序員、制造商、用戶,或許還有人工智能繫統本身。
2009年,我在美國和澳大利亞發表了幾篇具體探討該問題的文章。這些文章探討的具體內容似乎對開啟該問題的學術討論發揮了重要作用。這些文章的主要思想是,刑法不應該改變技術,而是應該主動適應現代技術的發展。我的文章還呼吁思考並反思對機器和軟件賦予刑事責任的理念。也許,並不應該對機器賦予刑事責任,但是,如果刑法的基本定義沒有改變,那麼這一怪異的結果卻是不可避免的。
我的每篇文章都獲得了許多評論,對此,我需要對這一理念進行限制性概括。該理念的個概括是,它僅限於有形機器人,這些機器人配有人工智能軟件,實施殺人罪的具體犯罪,而且並非衍生性刑事責任(derivative criminal liability)。2013年,拙著《當機器人殺人之時》(When Robots Kill)由新英格蘭大學出版社(UPNE)和東北大學出版社在美國合作出版。盡管該書是一本學術性書籍,但它的目標受眾卻旨在涵蓋法律學者之外的廣大讀者。
這本書被認為是具有創新性的。《華盛頓郵報》(Washington Post)、《波士頓環球報》(Boston Globe)、《紀事評論》(the Chronicle Review)譯者注:《紀事評論》(the Chronicle Review)是《高等教育紀事報》(the Chronicle of Higher Education)的下屬雜志,涵蓋文化、學術趨勢、出版、高等教育政策和學術生活等領域。和《喧囂》(the Hustle)譯者注:《喧囂》(the Hustle)是美國同名公司為政治、高等教育和非營利組織等領域提供的一款點對點文本消息平臺。等媒體均發表過相關書評。相關評論更是不勝枚舉。其中,一些評論呼吁對這一問題進行終的、全面的學術概括,不局限於有形機器人,亦不局限於殺人罪,應涉及衍生刑事責任問題。
但是,隨著機器人的使用與日俱增,更多的問題不斷湧現。雖然《當機器人殺人之時》已經給出明確答案,但法律界之外的同事和科學家邀請我撰寫一部新的專著。這次是關於人工智能繫統。於是,拙著《涉人工智能繫統犯罪的責任》(Liability for Crimes Involving Artificial Intelligence Systems)於2015年由斯普林格(Springer)出版社在歐洲出版。
10人工智能技術界對法律問題的認識也相應有所提高。很多學術論壇(文章和學術講座)以及學術論壇之外的其他場合(包括高科技產業和志同道合之士),都邀請我解釋如何實施這些理念。現在的情況似乎是,學術界之外的公眾所要求的答案,確實是官方法律繫統無法提供的。
2016年和2017年,匈牙利布達佩斯“腦吧”(Brain Bar)譯者注:“腦吧”節創立於2015年,融合技術會議和音樂節的年度盛大節日,專注於自由交換思想而非單向溝通,鼓勵觀眾直接與演講者溝通,旨在創造一個具有挑戰性、智力性和包容性的環境。2018年,該活動吸引來自世界各地的10000多名參會者以及超過38000人的直播觀眾。公開節兩次邀請我就相關問題發表演講(2016年:涉及殺人罪的機器人;2017年:與機器人的愛與性)。2018年,鋻於超級智能和後生物學(post biology)的發展,羅馬尼亞布加勒斯特的特德克斯(TEDx)邀請我就“思考的未來”發表演講。當然,我還接受了很多其他邀請。每次,我都能感覺到人們對答案的渴望。這種渴望如此真實,它與我在美國和歐洲關於這個問題的學術講座中所感受到的學術界對答案的渴望毫無差別。
2019年,上海人民出版社邀請我向中國讀者介紹這些理念。不過,在此期間,人工智能已經出現了全新的發展,它們應當納入新的專著之中。於是,本書應運而生。
我們所需要的是一本專業的學術教科書來解決這個問題,盡管它可能不太適合廣大公眾閱讀。這本書是對這一問題終的、全面的學術概括。這本書表達的整體理念涉及所有類型的先進人工智能繫統(自主運行的繫統和遵循計劃的繫統)的所有類型的犯罪的所有刑事責任模式(直接責任和衍生責任)。涉及這些犯罪的人工智能繫統可能是主犯、共犯,也可能僅僅是犯罪工具。本書的主要觀點之一是,或許至少目前尚不應當賦予技術繫統刑事責任。但是,如果刑法的基本定義沒有改變,那麼這種怪異的結果則是不可避免的。
本書的目的是發展出關於人工智能和機器人刑事責任的綜合的、一般的和復雜的法學理論。除了人工智能實體本身之外,該理論還涵蓋制造商、程序員、用戶和所有其他相關實體。通過對現有刑法原則的確認和類比,11該理論提出在各種合理狀況下由各種自主技術承擔刑事責任的具體思維方式。
章包括一些基本概念的探索,本書展開的後續章節均以這些概念為基礎予以構建。本書討論兩個主要問題:(1)什麼可以被認為是人工智能實體?(2)追究刑事責任的必要條件是什麼?
因為刑法並不依賴於道德(moral accountability),所以關於機器道德責任的爭論與這些問題無關。雖然,有時刑事責任、某些類型的道德責任和某些類型的倫理責任之間存在重疊,但對於追究刑事責任而言,這隻是巧合,而非必要。
刑法適用於機器的問題還涉及兩個相互關聯的次要問題:(1)刑事責任是否適用於機器?(2)刑事處罰是否適用於機器?
個問題是刑法的核心問題,是否追究刑事責任取決於是否滿足刑事責任的要求。隻有滿足刑事責任的要求,懲罰——即人類社會如何懲罰機器——的問題纔會出現。本書中提出的答案對這兩個問題都是肯定的。第二章至第五章研究個問題,第六章研究第二個問題。如果接受本書中的肯定答案,那麼事實上,我們已創造了一個全新的社會實體,即機械犯罪人(machina sapiens criminalis)。譯者注:machina sapiens criminalis是作者原創詞彙,源自machina sapiens(可譯作機器智人、機械智人)。因一般在生物史學中多嚴格使用智人(sapiens),通常語境亦可譯作——人(sapiens),另與robot(機器人)相區別,並借鋻電影《機械姬》(Ex Machina)的內容和譯法,machina sapiens在本書中譯作“機械人”。machina sapiens criminalis是machina sapiens中的特殊主體,對應於“犯罪人”與“人”,故machina sapiens criminalis在本書中譯作“機械犯罪人”。章研究機械犯罪人的出現。後,本書的研究回答以下問題,即人工智能實體是否可以被認為應對犯罪行為承擔法律責任(如果不是道德責任的話),並應受到刑事處罰。
本書聚焦於人工智能實體的法律責任,故而並未正式涉足倫理(包括機器人倫理)和道德的相關領域。然而,本書中關於刑事責任的討論為深入考慮相關倫理問題奠定了基礎。鋻於日常生活中人工智能實體數量不斷增加,這些探討將是必要的。對此,本書構建了一個應有的框架,有助於對這些問題進行具體性和功能性的探討。
我非常感謝上海人民出版社邀請我向中國讀者介紹這些理念。另外,我非常感謝陳萍博士將書稿翻譯成中文。後,我非常感謝我的女兒們——哈蕾爾和阿裡爾,感謝她們一直以來與我展開碩果累累的探討。
以色列奧諾學院(Ono Academic College)法學院教授加布裡埃爾·哈列維 推薦序 非常高興看到《審判機器人》的中文翻譯能夠成功出版。人工智能的刑事責任問題是我早關注並將其作為重點研究主題的。近年來,本人的相關論作在國內外學術界業已形成一定規模、特色和影響。本書作者哈列維教授的很多論證和觀點與我不謀而合,閱讀本書時,頗有惺惺相惜、相見恨晚之感。
,關於人工智能社會風險的刑法應對。我的主要觀點是,面對人工智能技術現在已經帶來和將來可能產生的風險,刑法應發揮為社會穩定健康發展保駕護航的作用。對於智能機器人的研發者和使用者的行為,以及智能機器人產生獨立意識和意志之後自主決定並實施的嚴重危害社會的行為,刑法的干預和刑罰的設置應保持適當的限度,既不能讓濫用人工智能技術的行為破壞社會的穩定發展,又不能讓刑法的過度干預阻滯人工智能技術的創新。哈列維教授也持相似觀點,他在書中表達的整體理念涉及所有類型的先進人工智能繫統(自主運行的繫統和遵循計劃的繫統)的所有類型犯罪的所有刑事責任模式(直接責任和衍生責任)。書中的核心觀點是也許目前尚不應當賦予人工智能實體獨立的刑事責任,但隨著人工智能技術的突飛猛進,將來讓人工智能實體獨立承擔刑事責任這一結果是不可避免的。
第二,關於智能機器人的刑事責任主體地位。我的主要觀點是,在弱人工智能時代,智能機器人在設計和編制的程序範圍內實施嚴重危害社會的行為,實際上是研發者或使用者行為的延伸,應當由研發者或使用者承擔刑事責任。與傳統犯罪相比,研發者或使用者之間的刑事責任分配會隨著智能機器人“智能”的增長而有所不同。智能機器人“智能”的增長還會影響對行為人量刑的輕重,甚至可能影響對行為人行為的性質判斷。智能機器人在自主意識和意志的支配下超出設計和編制的程序範圍實施嚴重危害社會的行為時,應將其作為刑事責任主體進行刑罰處罰。對此,哈列維教授從犯罪事實要素和心理要素要求的角度,分別論證(1)強人工智能實體(即自主運行的人工智能繫統)不但能夠符合犯罪事實要素(行為、情節、後果)的要求,同時也能夠符合心理要素(故意、過失、嚴格責任)的要求,應當獨立承擔刑事責任。在此基礎上,哈列維教授還進一步探討了一般抗辯對人工智能繫統的適用性問題。(2)弱人工智能實體(即不能自主運行的人工智能繫統)由於不具有犯罪所要求的形成心理要素的能力,不能獨立承擔刑事責任。對此,人工智能實體和自然人“共同”犯罪時的責任分配,哈列維教授認為可以適用間接正犯、可能的後果責任等理論。
第三,關於智能機器人刑罰處罰的機制配置。我的主要觀點是,我國現有刑罰體繫是由生命刑、自由刑、財產刑和權利刑構成,刑罰處罰對像及刑罰處罰方式均無法也不能涵括智能機器人。重構我國刑罰體繫並將智能機器人納入刑罰處罰的範圍符合刑罰的目的,同時也符合人工智能時代發展的需要且並未違背基本法理。建議增設能夠適用於智能機器人的刪除數據、修改程序、永久銷毀等刑罰處罰方式,並在條件成熟時增設適用於智能機器人的財產刑或者權利刑等刑罰處罰方式。哈列維教授則是從現有的死刑、監禁、緩刑、公共服務和罰金等刑罰制度出發,論證這些刑罰適用於人工智能實體的可行性。
本書中,哈列維教授對每章的論述都契入了人工智能現實應用場景中可能發生的犯罪案例,並提供了各個案例的理論解答。這種論證方式使得原本稍顯晦澀的教科書類學術書籍,更加活潑生動,更加便於理解,也更加適合非專業的廣大讀者。
總體而言,本書的整體論證全面而繫統,理論構建深入而細致,引用案例豐富而經典。我相信,這本譯著的出版十分有助於推動國內學者對哈列維教授理論的認知,十分有助於拓寬國內學者對人工智能與刑法關繫問題的研究視野,十分有助於促進國內外有識之士學術互動的進一步深入。人類社會正處於承舊時代在前、啟新時代於後的弱人工智能時代,回顧、梳理、展望人工智能與刑事責任的昨天、今天與明天,不僅可能,且意義重大。
本書譯者陳萍博士在南京大學法學院連續接受法學本科、碩士和博士教育,具有牢固的法學理論基礎,同時,兩次赴法深造,精通英語和法語,能夠潛心鑽研學術。我是陳萍博士的博士後合作導師,經過這兩年的師生交流,我對她的學術能力和學術態度非常肯定。她的翻譯行文流暢、邏輯分明,顯示出良好的遣詞造句功力,我深以為可。期待她能以本次翻譯為契機,繼續深度拓展人工智能與刑法關繫問題的研究。
是為序。
劉憲權華東政法大學刑事法學研究院院長,教授,博士生導師2019年5月20日於上海