[ 收藏 ] [ 简体中文 ]  
臺灣貨到付款、ATM、超商、信用卡PAYPAL付款,4-7個工作日送達,999元臺幣免運費   在線留言 商品價格為新臺幣 
首頁 電影 連續劇 音樂 圖書 女裝 男裝 童裝 內衣 百貨家居 包包 女鞋 男鞋 童鞋 計算機周邊

商品搜索

 类 别:
 关键字:
    

商品分类

  • 新类目

     管理
     投资理财
     经济
     社会科学
  • 失控與自控
    該商品所屬分類:管理 -> 管理
    【市場價】
    761-1104
    【優惠價】
    476-690
    【作者】 格爾德·吉仁澤 
    【所屬類別】 圖書  管理  一般管理學  管理學 
    【出版社】中信出版社 
    【ISBN】9787521754568
    【折扣說明】一次購物滿999元台幣免運費+贈品
    一次購物滿2000元台幣95折+免運費+贈品
    一次購物滿3000元台幣92折+免運費+贈品
    一次購物滿4000元台幣88折+免運費+贈品
    【本期贈品】①優質無紡布環保袋,做工棒!②品牌簽字筆 ③品牌手帕紙巾
    版本正版全新電子版PDF檔
    您已选择: 正版全新
    溫馨提示:如果有多種選項,請先選擇再點擊加入購物車。
    *. 電子圖書價格是0.69折,例如了得網價格是100元,電子書pdf的價格則是69元。
    *. 購買電子書不支持貨到付款,購買時選擇atm或者超商、PayPal付款。付款後1-24小時內通過郵件傳輸給您。
    *. 如果收到的電子書不滿意,可以聯絡我們退款。謝謝。
    內容介紹



    開本:32開
    紙張:膠版紙
    包裝:平裝-膠訂

    是否套裝:否
    國際標準書號ISBN:9787521754568
    作者:格爾德·吉仁澤

    出版社:中信出版社
    出版時間:2024年01月 

        
        
    "

    產品特色

    編輯推薦

    在智能世界,算法和人工智能越來越多地滲透進我們的生活,甚至決定我們的生活,但我們真的了解這些技術的局限和風險嗎?本書告訴我們應該如何正確看待數字技術,並為我們提供掌控自己生活的策略和方法,以避免被人工智能掌控。

     
    內容簡介
    我們可以通過軟件和算法獲得真愛嗎?
    為什麼自動駕駛汽車會陷入俄羅斯坦克謬誤?
    我們在網上購物時,有多少五星級好評是真實的,有多少是買來的?
    我們應該相信決定誰應該獲得工作、貸款或社會福利的秘密算法嗎?
    法官和警察越來越依賴不透明的“黑匣子”算法來預測刑事被告是否會再次犯罪或出庭,這可靠嗎?
    如果社交媒體平臺的業務是向刊登廣告的品牌方出售我們的注意力和時間,那麼社交媒體值得信賴嗎?
    我們是否應該沉迷於滾動鼠標瀏覽消息,讓身體產生更多的多巴胺?
    在智能世界,算法和人工智能越來越多地滲透進我們的生活,甚至決定我們的生活,但我們真的了解這些技術的局限和風險嗎?本書告訴我們應該如何正確看待數字技術,並為我們提供掌控自己生活的策略和方法,以避免被人工智能掌控。

    我們可以通過軟件和算法獲得真愛嗎?
    為什麼自動駕駛汽車會陷入俄羅斯坦克謬誤?
    我們在網上購物時,有多少五星級好評是真實的,有多少是買來的?
    我們應該相信決定誰應該獲得工作、貸款或社會福利的秘密算法嗎?
    法官和警察越來越依賴不透明的“黑匣子”算法來預測刑事被告是否會再次犯罪或出庭,這可靠嗎?
    如果社交媒體平臺的業務是向刊登廣告的品牌方出售我們的注意力和時間,那麼社交媒體值得信賴嗎?
    我們是否應該沉迷於滾動鼠標瀏覽消息,讓身體產生更多的多巴胺?


    在智能世界,算法和人工智能越來越多地滲透進我們的生活,甚至決定我們的生活,但我們真的了解這些技術的局限和風險嗎?本書告訴我們應該如何正確看待數字技術,並為我們提供掌控自己生活的策略和方法,以避免被人工智能掌控。


     

    作者簡介

    [德]格爾德·吉仁澤,社會心理學家,德國柏林馬普所人類發展研究中心主任,曾擔任美國芝加哥大學心理學教授。在世界各國講授風險課,幫助人們正確認識風險和不確定性,從而做出明智決策。出版過《風險與好的決策》《直覺思維》等著作。 

    目錄
    前 言
    第一部分 人類智能與人工智能
    第一章 點擊一下鼠標就能找到真愛?
    第二章 人工智能*擅長什麼:穩定世界原則
    第三章 機器影響我們對智能的看法
    第四章 自動駕駛汽車會成為現實嗎?
    第五章 常識和人工智能
    第六章 一個數據點可以擊敗大數據
    第二部分 高昂的代價
    第七章 透明度
    第八章 夢遊著進入監控
    第九章 吸引用戶的心理效應
    第十章 安全和自控
    第十一章 真假難辨

    前 言  
    第一部分 人類智能與人工智能
    第一章 點擊一下鼠標就能找到真愛? 
    第二章 人工智能*擅長什麼:穩定世界原則  
    第三章 機器影響我們對智能的看法  
    第四章 自動駕駛汽車會成為現實嗎? 
    第五章 常識和人工智能 
    第六章 一個數據點可以擊敗大數據 
    第二部分 高昂的代價
    第七章 透明度  
    第八章 夢遊著進入監控  
    第九章 吸引用戶的心理效應 
    第十章 安全和自控 
    第十一章 真假難辨 
    致 謝  
    注 釋  
    參考文獻 

    媒體評論
    吳晨,《經濟學人·商論》執行總編輯
    這是一本前瞻AI未來的書,也不斷拷問我們:在“人 機器”時代,機器與人的區別到底是什麼?總體而言,這本書給出了一個重要的框架:人工智能是對過去人類智慧的學習與總結,在環境穩定的世界,機器所帶來的效率和可替代性無與倫比,但是未來世界充滿巨大的不確定性,在這樣的世界中,人的創新性是機器無法替代的。
    這本書以非專業人士容易理解的方式涵蓋了人工智能一些極其復雜的主題,對其不同方面進行了巧妙論述,可讀性很強。吉仁澤是一位好的作家,例子令人信服。對那些厭倦了有關人工智能的誇張和炒作言論,以及擔心人工智能會對社會造成危險的人,這本書提供了一個重要的視角。
    這本書通俗易懂,揭秘了“智能”社會的邏輯。盡管其中列舉的許多重大科技的野心令人沮喪,但這本書的總體內容,以及作者對人性的看法,均是積極的。
    吉仁澤是赫伯特·西蒙經濟學和決策理論有限理性傳統*富創見和*連貫的追隨者。這本鼓舞人心的書戳破了許多連接主義人工智能預測能力的神話,描述了人工智能在解決不確定和不穩定現像方面所遭受的種種失敗,重啟了模擬心理學方法,以使人工智能符合倫理和充滿人性。
    任何擔心人工智能時代的人,在閱讀這本書後都會睡個好覺。

    吳晨,《經濟學人·商論》執行總編輯
    這是一本前瞻AI未來的書,也不斷拷問我們:在“人 機器”時代,機器與人的區別到底是什麼?總體而言,這本書給出了一個重要的框架:人工智能是對過去人類智慧的學習與總結,在環境穩定的世界,機器所帶來的效率和可替代性無與倫比,但是未來世界充滿巨大的不確定性,在這樣的世界中,人的創新性是機器無法替代的。


    加裡·克萊因,博士,《如何作出正確決策》作者
    這本書以非專業人士容易理解的方式涵蓋了人工智能一些極其復雜的主題,對其不同方面進行了巧妙論述,可讀性很強。吉仁澤是一位好的作家,例子令人信服。對那些厭倦了有關人工智能的誇張和炒作言論,以及擔心人工智能會對社會造成危險的人,這本書提供了一個重要的視角。


    約翰·澤裡利,牛津大學助理研究員,《人工智能公民指南》合著者
    這本書通俗易懂,揭秘了“智能”社會的邏輯。盡管其中列舉的許多重大科技的野心令人沮喪,但這本書的總體內容,以及作者對人性的看法,均是積極的。


    裡卡多·維亞萊,米蘭大學行為科學和認知經濟學教授,赫伯特·西蒙學會秘書長
    吉仁澤是赫伯特·西蒙經濟學和決策理論有限理性傳統*富創見和*連貫的追隨者。這本鼓舞人心的書戳破了許多連接主義人工智能預測能力的神話,描述了人工智能在解決不確定和不穩定現像方面所遭受的種種失敗,重啟了模擬心理學方法,以使人工智能符合倫理和充滿人性。


    《出版人周刊》
    任何擔心人工智能時代的人,在閱讀這本書後都會睡個好覺。


    《圖書館雜志》
    這本書基於充分的調查研究,令人信服,讓人眼界大開。


    《新科學家》
    這本書巧妙地解釋了技術和人工智能的局限與危險性。


    《晨星報》
    接觸塑造我們行為而不是滿足我們需求的技術的每個人,都應該閱讀這本書。


     

    在線試讀
    如果有一個智能助理什麼都做得比你好,不管你說什麼,它都準確理解,不管你決定什麼,它都準確執行,你提出明年的計劃後,它會提出一個更好的計劃,某些時候,你可能會放棄自己做出的決定。現在是人工智能在有效管理你的財務、填寫你的信息、選擇你的感情伴侶,並計劃你*好什麼時候生孩子。包裹會送到你家門口,甚至其中一些物品,你都不知道自己需要。社會工作者可能會造訪,因為數字助手預測你的孩子有罹患嚴重抑郁癥的風險。你還在為支持哪個政治候選人而苦惱,數字助手已經知道並幫你投好了票。科技公司掌控你的生活隻是時間問題,忠實的助手會變成一個卓越的超級智能。我們的孫輩將像一群羊,滿含敬畏,對他們的新主人或是歡呼雀躍,或是瑟瑟發抖。
    近年來,我在許多熱門的人工智能活動上發言,人們對復雜算法廣泛無條件的信任,一次次讓我震驚。無論主題是什麼,科技公司的代表都向聽眾保證,機器會更準確、更快速、更經濟地完成這項工作,更重要的是,用軟件代替人工很可能會讓世界變得更美好。同樣,聽說谷歌比我們更了解自己,人工智能幾乎可以完美地預測我們的行為,或者很快就能做到這一點。在向廣告商、保險公司或零售商提供服務時,科技公司就宣布了這種能力。我們也傾向於相信這一點。即使是那些認為機器會帶來世界末日的流行作家,以及科技行業*直言不諱的批評者也認為人工智能幾乎無所不知,他們將人工智能稱為邪惡的監控資本主義,是對人類自由和尊嚴的恐懼。1正是這種信念讓許多人擔心Facebook(現在更名為Meta)是一個可怕的奧威爾式監控機器。數據洩露和劍橋分析丑聞將這種擔憂放大,讓人害怕,讓人敬畏。要麼出於信仰,要麼出於恐懼,但故事情節卻保持不變,情節是這樣的:
    計算能力每兩年翻一番。
    因此,機器很快就會比人類做得更好。
    因為對於某些類型的問題,計算能力還有很長的路要走,但對於其他問題卻沒有。迄今為止,人工智能一直是在具有固定規則、定義明確的遊戲中獲得勝利,例如國際像棋和圍棋,在相對不變的條件下人臉和語音識別也取得了類似成功。環境穩定時,人工智能可以超越人類。如果未來和過去一樣,那麼海量數據大有用處。然而,如果發生意外,大數據(都是過去的數據)可能會誤導我們對未來的看法。大數據算法並沒有預測出2008年的金融危機,卻預測希拉裡·克林頓在2016年獲得壓倒性勝利。
    事實上,我們面臨的許多問題並不是定義明確的遊戲,而是充滿著不確定性,比如尋找真愛、預測誰會犯罪,或者在不可預見的緊急情況下做出反應。在這裡,計算能力再強,數據量再大,幫助也是有限的。人類是不確定性的主要來源。想像一下,如果國王可以一時興起違反規則,而王後可以在放火燒車後跺下棋盤以示抗議,那麼國際像棋將會變得多麼困難。在涉及人的情況下,信任復雜算法會對確定性產生錯覺,從而成為災難的根源。
    了解復雜算法在情況穩定時可能會成功,但在不確定的情況下會變得比較困難,這體現了本書的主題:

    如果有一個智能助理什麼都做得比你好,不管你說什麼,它都準確理解,不管你決定什麼,它都準確執行,你提出明年的計劃後,它會提出一個更好的計劃,某些時候,你可能會放棄自己做出的決定。現在是人工智能在有效管理你的財務、填寫你的信息、選擇你的感情伴侶,並計劃你*好什麼時候生孩子。包裹會送到你家門口,甚至其中一些物品,你都不知道自己需要。社會工作者可能會造訪,因為數字助手預測你的孩子有罹患嚴重抑郁癥的風險。你還在為支持哪個政治候選人而苦惱,數字助手已經知道並幫你投好了票。科技公司掌控你的生活隻是時間問題,忠實的助手會變成一個卓越的超級智能。我們的孫輩將像一群羊,滿含敬畏,對他們的新主人或是歡呼雀躍,或是瑟瑟發抖。
    近年來,我在許多熱門的人工智能活動上發言,人們對復雜算法廣泛無條件的信任,一次次讓我震驚。無論主題是什麼,科技公司的代表都向聽眾保證,機器會更準確、更快速、更經濟地完成這項工作,更重要的是,用軟件代替人工很可能會讓世界變得更美好。同樣,聽說谷歌比我們更了解自己,人工智能幾乎可以完美地預測我們的行為,或者很快就能做到這一點。在向廣告商、保險公司或零售商提供服務時,科技公司就宣布了這種能力。我們也傾向於相信這一點。即使是那些認為機器會帶來世界末日的流行作家,以及科技行業*直言不諱的批評者也認為人工智能幾乎無所不知,他們將人工智能稱為邪惡的監控資本主義,是對人類自由和尊嚴的恐懼。1正是這種信念讓許多人擔心Facebook(現在更名為Meta)是一個可怕的奧威爾式監控機器。數據洩露和劍橋分析丑聞將這種擔憂放大,讓人害怕,讓人敬畏。要麼出於信仰,要麼出於恐懼,但故事情節卻保持不變,情節是這樣的:


    人工智能在國際像棋和圍棋比賽中擊敗了*優秀的人類。
    計算能力每兩年翻一番。
    因此,機器很快就會比人類做得更好。


    我們將此種論調稱為“人工智能戰勝人類”的論點。它預測機器超級智能即將到來。這一論調的兩個前提是正確的,結論卻是錯誤的。
    因為對於某些類型的問題,計算能力還有很長的路要走,但對於其他問題卻沒有。迄今為止,人工智能一直是在具有固定規則、定義明確的遊戲中獲得勝利,例如國際像棋和圍棋,在相對不變的條件下人臉和語音識別也取得了類似成功。環境穩定時,人工智能可以超越人類。如果未來和過去一樣,那麼海量數據大有用處。然而,如果發生意外,大數據(都是過去的數據)可能會誤導我們對未來的看法。大數據算法並沒有預測出2008年的金融危機,卻預測希拉裡·克林頓在2016年獲得壓倒性勝利。
    事實上,我們面臨的許多問題並不是定義明確的遊戲,而是充滿著不確定性,比如尋找真愛、預測誰會犯罪,或者在不可預見的緊急情況下做出反應。在這裡,計算能力再強,數據量再大,幫助也是有限的。人類是不確定性的主要來源。想像一下,如果國王可以一時興起違反規則,而王後可以在放火燒車後跺下棋盤以示抗議,那麼國際像棋將會變得多麼困難。在涉及人的情況下,信任復雜算法會對確定性產生錯覺,從而成為災難的根源。
    了解復雜算法在情況穩定時可能會成功,但在不確定的情況下會變得比較困難,這體現了本書的主題:
    保持聰慧意味著了解數字技術的潛力和風險,以及在充滿算法的世界中保持主導地位的決心。
    我寫這本書是為了幫助你了解數字技術的潛力,比如人工智能,但更重要的是,幫助你了解這些技術的局限性和風險。隨著這些技術逐漸普及,成為主導,我想為你提供掌控自己生活的策略和方法,不讓自己被人工智能打敗。軟件做出我們的個人決定時,我們是否應該放任自由?當然不應該。保持聰慧並不意味著完全信任技術,也不意味著充滿焦慮,完全不信任技術。相反,這本書旨在幫助讀者了解人工智能可以做什麼,揭示有關營銷炒作和技術宗教信仰的幻想有何問題。同時,本書還討論了如何讓人類控制設備,而不是被設備遠程控制。
    保持聰慧與掌握數字技能以使用技術不同。世界各地的教育項目都試圖通過為教室購買平板電腦和智能白板,並教孩子們如何使用這些設備來提高數字技能。但這些項目很少教孩子們如何理解數字技術帶來的風險。結果,令人震驚的是,多數數字原住民(自幼就熟悉信息技術的人)無法將隱藏廣告與真實新聞區分開來,而是被網站的外觀所吸引。例如,一項針對3,446名數字原住民的研究表明,96%的人不知道如何檢查網站和帖子的可信度。2
    智能世界不僅僅是在我們的生活中增添智能電視、在線約會和其他花招噱頭。這是一個被數字技術改變的世界。當智能世界的大門第一次打開,許多人將其描繪為一個人人都能接觸到真實信息之樹的天堂,*終將終結無知、謊言和腐敗,將公開有關氣候變化、恐怖主義、逃稅、剝削窮人和侵犯人類尊嚴的事實,將揭露不道德的政客和貪婪的行政人員,使他們被迫辭職,將防止政府監控公眾和侵犯公眾隱私。雖然天堂也被污染了,但在某種程度上,這個夢想已經成為現實。然而,真正巨大的變化卻是社會變革。世界不會簡單地變得更好或更壞,我們對好與壞的看法正在發生變化。例如,不久前,人們非常關注隱私,走上街頭抗議政府和公司試圖監控他們並掌握其個人數據。各種活動家、年輕的自由主義者和主流組織對1987年德國人口普查進行了大規模抗議,擔心計算機可以將他們的答案去匿名化,憤怒的人們在柏林牆上貼滿了數千份空白問卷。2001年的澳大利亞人口普查中,超過70,000人宣布其宗教為“絕地武士”(取自電影《星球大戰》)。2011年,英國公民抗議政府侵犯他們隱私的問題,如宗教信仰問題。3今天,智能家居每周七天每天24小時全天候記錄我們所做的一切,包括我們在臥室裡的活動,孩子們的智能玩偶記錄了它所托付的每一個秘密,這種情況下我們卻隻是聳了聳肩。人們對隱私和尊嚴的感受在隨技術而變化,這兩個詞有可能成為過去的概念。互聯網的夢想曾經是自由;對許多人來說,自由現在意味著不受約束的互聯網。
    自古以來,人類創造了許多驚人的新技術,但人類並不總是明智地使用這些技術。為了獲得數字技術的諸多好處,我們需要洞察力和勇氣,以在智能世界中保持聰慧。不要再放任自由,是時候睜大眼睛並維持掌控了。
    ……


    技術專制
    專制/家長制(來自拉丁詞pater,“父親”)是指這樣一種觀點,即一個選定的群體有權像對待孩子一樣對待他人,後者應該願意服從該群體的權威。從歷史上看,統治集團是上帝選擇的,是貴族的一部分,擁有秘密的知識或華麗的財富。這給專制的存在做出了合理的解釋。他們權力之下的人被認為低人一等,因為他們是女性、有色人種、窮人或未受過教育的人群等。20世紀,在絕大多數人終於有機會學習閱讀和寫作之後,在政府*終授予男性和女性言論和行動自由以及投票權之後,專制作風逐漸退卻。這場革命中堅定的支持者鋃鐺入獄或獻出生命,纔使得包括我們在內的下一代能夠自己掌握命運。然而,在21世紀,科技公司正見證一種新的專制的興起,無論我們是否同意,這些公司正在使用機器來預測和操縱我們的行為。倡導者甚至宣布新的上帝即將到來,即一種被稱為“通用人工智能(AGI)”的無所不知的超級智能,據說在腦力的各個方面都超過了人類。在它到來之前,我們應該聽從他的預言家們。22
    技術解決主義認為每個社會問題都是一個“錯誤”,需要通過算法“修復”。技術專制是其自然結果,需要通過算法進行治理。它不需要兜售超級智能的傳說;相反,它希望我們接受公司和政府每時每刻記錄我們在哪裡、我們在做什麼以及與誰一起的行為,並相信這些記錄將使世界變得更美好。正如谷歌的前總裁埃裡克·施密特(EricSchmidt)解釋的那樣,“我們的目標是讓谷歌用戶能夠提出諸如‘我明天應該做什麼’和‘我應該從事什麼工作?’之類的問題。”23不少廣受歡迎的作家通過講述充其量是符合事實的故事來激起我們對技術專制的敬畏。24更令人驚訝的是,即使是一些有影響力的研究人員也認為人工智能的能力沒有限制,他們認為人腦隻是一臺劣等計算機,我們應該盡可能用算法代替人腦。25人工智能會告訴我們該做什麼,我們應該傾聽並遵循。我們隻需要稍等片刻,等待人工智能變得更聰明。奇怪的是,這絕不是說人們也需要變得更聰明。
    我寫這本書是為了讓讀者對人工智能能做什麼,以及它如何影響我們有一個現實的認識。我們不需要更多的技術專制;在過去幾個世紀裡,我們已經承受得太多。但我們也不需要恐懼技術,每一項突破性技術都會使這種恐慌重新出現。火車發明時,醫生警告說乘客會死於窒息。26收音機廣泛使用時,人們擔心聽得太多會傷害孩子,因為他們需要的是休息,而不是爵士樂。27數字世界需要的不是恐懼或炒作,而是需要消息靈通、理性批判的公民,他們希望將自己的生活掌握在自己手中。
    這本書不是對人工智能或其子領域(如機器學習和大數據分析)的學術介紹。相反,它是關於人類與人工智能的關繫:關於信任、欺騙、理解、成癮以及個人和社會轉型的探討。它是為普通讀者編寫的,作為應對智能世界挑戰的指南,其中借鋻了我自己的研究,包括馬克斯·普朗克人類發展研究所的不確定性下的決策研究,這個話題一直讓我著迷。在寫作過程中,我並不掩飾個人對自由和尊嚴的看法,但我盡可能呈現客觀證據,讓讀者自己做出判斷。我堅信,隻要我們繼續保持活躍,並利用我們在復雜進化過程中發展起來的大腦,人類並不像人們常說的那樣愚蠢和無能。尤其促使我寫這本書的是,人工智能擊敗人類的負面敘述,我們被動地同意讓政府或機器按照他們的條件“優化”我們的生活,這些危險與日俱增。跟我以前的書《直覺和風險意識》一樣,這本書是一種充滿激情的呼吁,以弘揚來之不易的個人自由和民主活力。
    在今天和不久的將來,我們面臨著專制和民主兩種制度之間的衝突,這與冷戰沒有什麼區別。然而,與那個時代不同,當核技術在兩種力量之間保持不穩定的平衡時,數字技術很容易將天平向專制繫統傾斜。我們已經在新冠病毒大流行期間看到了這種情況,當時一些國家在嚴格的數字監控繫統的幫助下成功地控制了病毒。
    我無法顧及與數字化領域相關的方方面面,但我會利用一些主題來解釋可以更廣泛應用的普遍原則,例如第2章中討論的環境穩定原則和得克薩斯神槍手謬誤,以及第4章討論的適應人工智能原理和俄羅斯坦克謬誤。你可能已經注意到,我是在廣義上使用“人工智能”這一術語,包括旨在完成人類智能所做的任何類型的算法,但我會在必要時進行區分。
    在每種文化中,我們都需要談論我們和我們的孩子希望生活的未來世界。答案不是唯一的,但有一句話適用於所有願景。盡管有了技術創新,或者說正因為技術創新,我們比以往任何時候都需要更多地使用大腦。
    讓我們從我們*關心的問題開始,尋找真愛,並從簡單到每個人都能理解的秘密算法開始。





     
    網友評論  我們期待著您對此商品發表評論
     
    相關商品
    在線留言 商品價格為新臺幣
    關於我們 送貨時間 安全付款 會員登入 加入會員 我的帳戶 網站聯盟
    DVD 連續劇 Copyright © 2024, Digital 了得網 Co., Ltd.
    返回頂部