【思考者】自動化會把人關進玻璃籠子嗎?

2019-08-03 10:54

  美國思想家尼古拉斯卡爾被認為是我們這個時代最清醒的思考者之一。當我們沉浸在技術帶來的便利和高效的時候,卡爾看到的卻是看似有百利而無一害的技術背后隱藏的手術刀。卡爾的前一部著作《淺薄》出版時在美國引起了巨大的轟動,《玻璃籠子》延續了《淺薄》的思想談到了自動化及我們的未來。這本書對于我們關注的諸多問題,如自動化是否使人變得越來越愚笨不堪,技術進步釋放了什么,我們在越來越智能的時代應該警惕什么等,給出了深入的解答。讀完,也許會顛覆你對科技的看法。

  大數據時代、機器人時代、自動化時代,會讓人類的未來變得更好,還是更糟?

  不同的專家權威給出了不同的解讀。與其說他們的觀點各自對立,倒不如說是高度互補的。我們需要X大獎創始人、奇點大學執行主席彼得戴曼迪斯在《富足》一書中就技術帶來美好未來的樂觀解答,以及具體的行動路線圖;科普作家馬特里德利的《理性樂觀派》回顧了科技史和經濟史,相當鼓舞人心。

  美國著名思想家、《哈佛商業評論》前主編尼古拉斯卡爾則要悲觀得多。他的《淺薄:互聯網如何毒化了我們的大腦》、《Google讓我們變愚蠢》等作品已成為互聯網、新科技時代的警世恒言,強調人類絕不能因為新科技、互聯網、智能化、自動化而丟棄主體性。某種意義可以認為,因為尼古拉斯卡爾這樣的人存在,以其影響力促使公共管理部門、公眾以及互聯網行業發生轉向,從盲目樂觀,變得更加注重新科技應用的安全,以及是否合乎倫理原則,技術的用戶因而獲得了更為安全、放心的體驗。

  我們現在看到的這本《玻璃籠子》,是尼古拉斯卡爾的新作。這本書延續了尼古拉斯卡爾的一貫立場,揭示了自動化、智能化趨勢潮流下,技術崇拜帶來的應用偏差,而這種偏差正在傷害人類自身。

  自動化新技術的弊端不斷曝出

  我國醫療衛生系統正在推進電子病歷、數字化的國民醫療檔案的普及。這被認為在不損害患者隱私的情況下,可以通過數據的發掘利用,極其有效的提高診療水平和響應速度。尼古拉斯卡爾在書中舉出了截然相反的例子。從小布什任內,到2009年初上任的奧巴馬,美國政府十多年來積極推進電子病歷普及,為此花費了多達數百億美元的投入。但在奧巴馬的第二任任期開始后,醫療界卻不斷曝出這項自動化新技術的弊端。

  首先是電子病歷的應用,促使醫生進行更多的不必要檢查,導致醫療成本的增加。這是因為電子病歷數據系統會自動推薦許多診斷檢查項目,系統默認設置為選取檢查,如果醫生要選擇不檢查,則要進行一番手動操作。第二項弊端是造成病歷檔案的隨意篡改,盡管這本可以通過系統設置來杜絕,但醫院和系統維護企業通常默許醫生所為。第三項弊端是弱化了醫生技能。醫生不再手寫病歷,而是大量通過剪切+粘貼的操作完成病歷描述,這確實提高了效率,卻誘使醫生忽略病人、類似病情之間的差異,診斷的專屬性和準確性降低了。與之同時,不再手寫病歷,加快了診療效率,卻因此減少了醫患溝通。此外,電子病歷系統還會事無巨細的提示診斷錯誤、處方配伍問題等,醫生通常煩不勝煩,會關閉問題提示,而這恰恰會誘發診斷和處方錯誤。

  回歸人類工程學的人本主義原則

  《玻璃籠子》一書還用了大量的篇幅來談論各類領域內,自動化、智能化、機器化的新科技應用所無法避免的局限性。例如GPS的廣泛使用,讓曾經是北極圈內的天才向導因紐特人失去了探路能力,事故相反頻發。又如自動飛行系統投入使用后,相反使得飛行員的技能被弱化,進而降低了應對突發危險情況的判斷能力,如果危急時刻存在兩難選擇的情況,自動化系統也給不出很好的解答對于飛行員來說,安裝了自動飛行系統的飛機,實際上已經變成具有更大危險性的玻璃籠子。

  歸結起來,尼古拉斯卡爾強調的自動化弊端,主要包括兩大方面:一是數據挖掘分析、算法本身存在的缺陷,無法做到盡善盡美,概率上百萬分之一、千萬分之一的差錯會以更高頻度出現,給應用了自動化系統的設備、系統帶來致命危機;二是自動化的應用,讓人產生過度依賴和偏好,從而降低了技能,也容易分散注意力和意識,無法做到安全可靠的應對突發風險。

  尼古拉斯卡爾不是盧德主義者,他不反對自動化的使用,但非常警惕盲目、過度而不設保障的自動化應用。他希望自動化、智能化、機器化潮流下,設計者、發明家、創新企業家能夠拋棄技術優先的策略,真正回到以人類為中心的自動化的懷抱,回歸人類工程學的人本主義原則。畢竟,只有切實的參與和勞動,才讓人在這個世界上產生存在感。

分享到:
收藏
宁夏麻将下载