正如硬幣有正反兩面一樣,人工智能功能的發(fā)揮也有其兩面性。一方面,作為工具屬性,人工智能延伸了人的四肢并逐漸解放大腦。使用遠程監(jiān)控的千里眼、遠距離信號傳輸?shù)捻橈L(fēng)耳、在古人看來無解的復(fù)雜計算,這些問題在人工智能那里得到了稀松平常的解決。另一方面,在某些領(lǐng)域,人工智能對人類運算、存儲、記憶等能力的替代和超越,孕育了人工智能全面超越人類的可能,而這種可能性增加了人類被支配、被奴役甚至被消滅的危險。目前來看,越來越多的科學(xué)技術(shù)正在促使這種危險向人類逼近。那么,如何解讀人工智能這種內(nèi)在的張力?人類的哪些屬性被人工智能改變?如何看待這些改變?
智能時代人類屬性的改變
當(dāng)分析人工智能既便利人類又可能滅亡人類的內(nèi)部張力的時候,我們需要回答兩個問題:一是我們說的人工智能究竟是哪種人工智能?二是這種張力是什么背景下發(fā)生的?
如果人工智能本質(zhì)上是一種利用計算機模擬人類智能的技術(shù),那么就可按歷史、流派、文化、功能等角度對其進行分類。按照功能大小,人工智能主要分為弱人工智能、強人工智能和超人工智能。所謂弱人工智能主要是為滿足特定需要、在特定方面對人的某一部分具體職能的替代和模仿的智能。這部分是目前應(yīng)用最多的智能。比如,電力設(shè)備自動化控制器、電費收費軟件、科大訊飛的語音翻譯軟件等。所謂強人工智能,主要是具有一定的通用性或一般應(yīng)用場景的人工智能技術(shù),該智能機器具有一定思考能力,比如,智慧電廠某些判斷、自動駕駛的推理判斷。超人工智能指具有相對自我學(xué)習(xí)、擁有與人類大腦相似的自主意識和自主創(chuàng)新能力。這種人工智能在科幻片中有很多,比如《人工智能》電影中的威爾,《機器姬》的那位機器人。這種超人工智能是弱人工智能和強人工智能發(fā)展的方向和未來。
既然人工智能的種類有如此的不同,那么按照這些種類推斷出的結(jié)論也會千差萬別。如果不在概念統(tǒng)一的共識下進行討論,一定是雞同鴨講式溝通。這也是很多人對人工智能產(chǎn)生不同認識、得出不同判斷,進而擁護或反對人工智能的原因。對能源電力來講,我們?nèi)粘=佑|的發(fā)、供、配、用電和大、云、物、移、智等概念,主要是電力領(lǐng)域的弱人工智能,即模仿人類的眼睛、耳朵、身體等五識的智能機器。這些人工智能是強人工智能的基礎(chǔ)。而本文討論的主要是強人工智能,即通用人工智能。這是因為,雖然弱人工能力有潛力發(fā)展為人類的替代者,但只是在某個專門領(lǐng)域內(nèi)發(fā)揮作用;超級人工智能還存在于科幻作品中,在不確定的遙遠未來里。
此時,我們就要回答:強人工智能產(chǎn)生的背景是什么,即人工智能張力是在什么樣的特殊時代背景下產(chǎn)生的。這個背景就是很多人所確認的我們已經(jīng)進入的人工智能時代。當(dāng)然,使用“人工智能時代”這個說法,不是認為這個時代只有人工智能而沒有能源互聯(lián)網(wǎng)、基因工程、物聯(lián)網(wǎng)等科技,而是認為人工智能是這個時代的標志。正如鐵器時代也有工業(yè),電氣時代也有農(nóng)耕一樣。這個時代,以人工智能為代表的高科技使人類的生產(chǎn)力、生產(chǎn)關(guān)系,生活環(huán)境、生存方式發(fā)生了重要的甚至革命性的變化,這些變化在一定程度上也導(dǎo)致了人類屬性的改變。人工智能不僅通過基因編輯等形式改變了人類的生理屬性(比如試管嬰兒、人造心臟對人類的生理結(jié)構(gòu)的塑造),而且還通過替代人類計算、記憶等形式改變了人類的智力屬性(文化屬性)。隨著時代的發(fā)展,這種生理屬性和文化屬性的改變呈現(xiàn)不斷匯合的趨勢,這種融合的交替作用正加快人類屬性的較大改變。在這樣一個背景之下,先前有關(guān)人性和理性的理論都要予以重新的審視。
人類屬性有何改變
既然人工智能對人類屬性帶來了改變,那么,這種改變到底是什么樣的改變?回答這一問題的前提是,人類的屬性到底是什么?
人類的屬性是一個自古以來哲學(xué)界一直關(guān)心而沒有標準答案的話題。我們采用康德關(guān)于人類屬性的四個追問,即人類能認識什么、人類應(yīng)該做什么、人類可期待什么和人類是什么。這四個追問的核心歸結(jié)為一句話,即如何定義人類在世界上的地位、價值、生存和發(fā)展的根據(jù)和意義。按照康德的思路,人工智能帶給人類屬性的變化至少在四個方面。一是人屬性中的生物性質(zhì)的變化。人工智能技術(shù)下的基因工程和器官移植,生成了有基因干預(yù)和有器官移植的人類,這一進程看似緩慢實際快速地塑造著新的人類。試管嬰兒和移植器官病例的增加說明,人類的基礎(chǔ)屬性正在遭受人工智能水滴石穿般力量的攻擊。二是由生物屬性變化帶來的人類心理和智力的變化。三是人的相對地位變化。如果說,人類能夠憑借智力而成為萬物之靈長,那么為什么擁有并且可能擁有超過人類智能的機器就不能作為萬物之首呢?四是人類中心主義的倫理面臨挑戰(zhàn)。如果不能阻止機器替代人的可能性,那么有什么理由說碳原子合成的肉體比硅原子合成的智能機更高貴呢?
人工智能對人類屬性的改變已經(jīng)成為既定的經(jīng)驗事實。這其中,腦機接口研究和生物芯片技術(shù)具有一定的代表性。腦機接口領(lǐng)域是被世界頂級刊物《麻省理工科技評論》稱為改變世界的一項新興技術(shù)。隨著腦機接口技術(shù)的不斷發(fā)展,很多漸凍人患者、嚴重癱瘓患者可重新學(xué)會行走。更重要的是,正常人也可“神通廣大”用意念掌控生活。比如,用思想來操控電腦、駕駛汽車、與他人進行交流,而不再需要笨重的鍵盤或液壓方向盤。如果一個人能靠意念極快地獲得快樂,那么奮斗的意義何在?追求的幸福在哪里?
生物芯片技術(shù)是利用半導(dǎo)體工業(yè)中的微加工技術(shù)把DNA、蛋白質(zhì)、細胞、組織這些非常微小的材料有序地放到芯片上去。在人工智能技術(shù)的支撐下,生物芯片技術(shù)將給生物戰(zhàn)爭、生命科學(xué)、環(huán)境監(jiān)督等領(lǐng)域帶來巨大的革新甚至革命。個人記憶是人類認同的唯一根據(jù)。倘若人的記憶可以通過腦—機結(jié)合強化,可以通過生物芯片技術(shù)改變,那么記憶的內(nèi)容同樣也可以由此而改變。這個時候,被人工智能武裝過的腦機接口(生物芯片)人還是之前的那個人嗎?如果不是,與之前的人又有何區(qū)別呢?
退一步說,即便人工智能沒有改變?nèi)说闹黧w性。那么,在人的主體地位上,人工智能崛起也給人類帶來挑戰(zhàn)。比如,人類頂尖棋手僅僅能測算部分棋牌步驟,而阿爾法狗卻能在只掌握圍棋基本規(guī)則的前提下,依靠自我學(xué)習(xí),就將人類打得毫無還手之力!如果說腦機接口、生物芯片、阿爾法狗距離我們還遙遠的話,那么,許多專業(yè)性的工作逐漸被弱人工智能所取代現(xiàn)象正在不斷量變。如,以十年為界比較電廠供用電技術(shù)的變遷,以五年為界比較移動互聯(lián)網(wǎng)對PC互聯(lián)網(wǎng)的代替。那些原本被視為高端智力工作被呆頭呆腦的機器所取代,而人類還得聽從它的安排,因為一些事情機器過不去、程序過不去,人類就過不去。
人工智能對人類屬性的生物屬性、智力屬性的改變,可能不會如奇點一樣突然涌現(xiàn),但當(dāng)這些改變演變到普遍程度時,整個人類的物理基礎(chǔ)、行為規(guī)范都會產(chǎn)生本質(zhì)的改變。
面對人類屬性改變的應(yīng)對策略
對人工智能帶來人類屬性的改變,有樂觀者,有悲觀者,也有無動于衷者。科學(xué)家可能更多關(guān)注在技術(shù)實現(xiàn)方面的弱人工智能,而哲學(xué)家更關(guān)注人類可能被取代的強人工智能。科學(xué)家與哲學(xué)家的這種分歧的結(jié)果是,科學(xué)家對人的本質(zhì)屬性并不關(guān)心,哲學(xué)家對科學(xué)的技術(shù)可能泛泛而談。
但,未來已來。
對于如何防范人工智能危機的問題,學(xué)界有很多建議,且并沒有統(tǒng)一的意見。其中比較著名的是美國科幻作家阿西莫夫提出的《機器人學(xué)的三大法則》:機器人必須保護人類的整體利益不受傷害(第零法則)。機器人不得傷害個體人類,或者目睹人類個體遭受危險而不管不問,除非這違反了機器人學(xué)第零法則(第一法則)。機器人必須服從人給予它的命令,當(dāng)該命令與第零法則或者第一法則沖突時例外(第二法則)。機器人在不違反第零、第一、第二法則的情況下可盡可能保護自己的生存(第三法則)。看來堪稱完美,但是,“人類的整體利益”這種混沌的概念,連人類自己都搞不明白,更不要說那些用0和1來想問題的機器人了。威爾·史密斯說:“機器人沒有問題,科技本身也不是問題,人類邏輯的極限才是真正的問題。”
筆者以謹慎樂觀的態(tài)度提出建議。
一是成立人工智能倫理建設(shè)委員會。該委員會包括人工智能領(lǐng)域的科學(xué)家、工程師和倫理、法律、政治、經(jīng)濟、社會等領(lǐng)域的專家,在民主協(xié)商的基礎(chǔ)上,按照“少數(shù)服從多數(shù)”的原則,對人工智能的發(fā)展規(guī)劃和前沿技術(shù)的研發(fā)開展評估并提出建議。
二是以人為本。既然人工智能是一項人類創(chuàng)造的為人類服務(wù)的技術(shù),那么,就應(yīng)堅持人類為中心的倫理,使這項技術(shù)盡可能滿足人類多方面的愿望和不斷增長的需要。既不能因噎廢食而抗拒人工智能,放棄人工智能造福人類的機會;也絕不應(yīng)該過于自信、任其發(fā)展,而使得人工智能的負面效應(yīng)、可能風(fēng)險傷害人類。
三是合理公正原則。對于人工智能可能造成的失業(yè)問題甚至造就無用階層的問題,應(yīng)該確立公正原則,讓人工智能為盡可能多的人服務(wù),讓盡可能多的人共享其成果。任何人都應(yīng)平等接觸人工智能,可以自由使用人工智能。
當(dāng)然,隨著技術(shù)進步和社會發(fā)展,人工智能會有新變化,我們應(yīng)該面對這些已經(jīng)或即將發(fā)生的變化提出新的應(yīng)用對策。(作者系中央民族大學(xué)中華文化研究院特聘研究員,高級編輯)
原載《當(dāng)代電力文化》2020年第6期
評論