




版權(quán)說明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)
文檔簡(jiǎn)介
ChatGPT對(duì)法律人主體性的挑戰(zhàn)
引言
由人工智能實(shí)驗(yàn)室OpenAI發(fā)布的對(duì)話式大型語(yǔ)言模型
ChatGPT在各大中外媒體平臺(tái)掀起了一陣狂風(fēng)。從2022年11月
末公開測(cè)試始算,ChatGPT活躍用戶數(shù)僅用2個(gè)多月就突破了1
億。作為一種生成式人工智能(AIGC),ChatGPT具有語(yǔ)言理解
能力,并采用深度合成技術(shù),即利用以深度學(xué)習(xí)、虛擬現(xiàn)實(shí)為代
表的生成合成制作文本、圖像、音頻、視頻、虛擬場(chǎng)景等信息。
(1)參見張凌寒:《深度合成治理的邏輯更新與體系迭代一一
ChatGPT等生成型人工智能治理的中國(guó)路徑》,載《法律科學(xué)》
2023年第3期,第39頁(yè)。除日常交流外,它還可用于撰寫郵件、
視頻腳本、程序代碼、論文、詩(shī)歌及翻譯等工作。以法律行業(yè)為
例,ChatGPT能夠幫助律師生成標(biāo)準(zhǔn)法律文書和合同,分析案件
要點(diǎn)并提供專業(yè)建議,幫助法官搜尋、比對(duì)案例要點(diǎn)和撰寫判決
書。2023年1月30日,哥倫比亞卡塔赫納區(qū)巡回法院第一勞工
法庭在人類歷史上首次使用ChatGPT作出判決書,(2)
SeeAJudgeJustUsedChatGPTtoMakeaCourtDecision,https:
〃www.vice,com/en/article/k7bdmv/judge-used-chatgpt-tom
ake-court-decision,2023年4月17日訪問。甚至能夠協(xié)助立
法者擬定整部法律草案。ChatGPT的功能如此強(qiáng)大,以至于馬斯
克認(rèn)為“我們離強(qiáng)大到危險(xiǎn)的AI不遠(yuǎn)了”。(3〕《ChatGPT太
聰明?馬斯克警告:我們離強(qiáng)大到危險(xiǎn)的AI不遠(yuǎn)了》,https:
//baijiahao.baidu.com/s?id=1760043936859849850&wfr=spid
er&for=pc,2023年4月17日訪問。
人工智能按照代際可以劃分為弱人工智能、強(qiáng)人工智能和超
人工智能。[4)參見李晟:《略論人工智能語(yǔ)境下的法律轉(zhuǎn)型》,
載《法學(xué)評(píng)論》2018年第1期,第98-99頁(yè)。弱人工智能時(shí)代
的主要工作是特定任務(wù)領(lǐng)域?qū)<蚁到y(tǒng)的開放與應(yīng)用。雖然不同專
家系統(tǒng)的算力和算法不同,但它們一般只限于特定任務(wù)領(lǐng)域,如
圍棋算法系統(tǒng)阿爾法狗,以及案例推理系統(tǒng)HYPO和CATO。(5)
關(guān)于前者,參見KelvinAshley,ModelingLegalArgument:
ReasoningwithCasesandHypotheticals,MITPress,1990,
p.2ff.,關(guān)于后者,參見KelvinAshley,
AnAImodelofcase-basedlegalargumentfromajurisprudentialv
iewpoint,ArtificialIntelligenceandLawlOC2002),p.163-218.
弱人工智能向強(qiáng)人工智能轉(zhuǎn)化的標(biāo)志是網(wǎng)絡(luò)神經(jīng)和深度學(xué)習(xí)的
出現(xiàn),表現(xiàn)為將專家系統(tǒng)與系統(tǒng)控制的學(xué)習(xí)聯(lián)系起來,模仿人類
大腦的結(jié)構(gòu)進(jìn)行信息的獲取、存儲(chǔ)、連接和復(fù)制。[6)
SeeHannesSchulz&SvenBehnke,DeepLearning:
Layer-WiseLearningofFeatureHierarchies,KI-Ku
nstlichelntelligenz26(2012),p.1-7.當(dāng)機(jī)器學(xué)習(xí)算法能通
過構(gòu)建一個(gè)通用模型完成不同領(lǐng)域的差異化任務(wù)時(shí),強(qiáng)人工智能
時(shí)代就到來了。一旦從強(qiáng)人工智能迭代到超人工智能的“奇點(diǎn)”
—2—
(singularity)被跨越,一種在智力和體力等各方面全面超越
人類的AI出現(xiàn),人類恐怕首先要面對(duì)的是生存危機(jī)。此時(shí)再談
論人類文明和法律已沒有任何意義,因?yàn)槿魏挝拿骱头啥加衅?/p>
生存論前提。面對(duì)超級(jí)AI,關(guān)鍵已不再是人類如何為其立法或
對(duì)其進(jìn)行法律規(guī)制,而是它如何為人類立法,以及人類是否可能
和應(yīng)當(dāng)逃脫它對(duì)人類的規(guī)制問題。所幸到目前為止,超人工智能
仍停留于想象階段。如果按照這一代際劃分,那么具備深度合成
能力、能夠解決多樣化工作任務(wù)的ChatGPT就預(yù)示著強(qiáng)人工智能
時(shí)代的到來。作為一種大型語(yǔ)言模型,ChatGPT屬于代碼層的基
石性模型(foundationalmodel)可以被應(yīng)用到一系列下游場(chǎng)景
中,如智慧法院、智慧檢務(wù)和智慧公安等各種公共服務(wù)場(chǎng)景。大
型語(yǔ)言模型具有通用性,可以服務(wù)于不同政治目的和商業(yè)模式確
定的任務(wù),并通過基于人類反饋的強(qiáng)化學(xué)習(xí)尋找完成這些任務(wù)的
最優(yōu)解。(7)參見於興中、鄭戈、丁曉東:《生成式人工智能
與法律的六大議題:以ChatGPT為例》,載《中國(guó)法律評(píng)論》2023
年第2期,第2頁(yè)。
當(dāng)下最大的擔(dān)憂在于,以ChatGPT為代表的機(jī)器人是否能比
肩、甚至在未來取代人類?在最近的一個(gè)測(cè)試中,ChatGPT將人
類和AI定位為不同的“生物體”,(8)《我與ChatGPT的對(duì)話:
碳基生命和硅基生命,其實(shí)都是宿命》,https:
//mp.weixin.qq.com/s/wRcKsD4FjceKDuztwXhvfg,2023年4月
17日訪問。似乎是在主張自己與人類一樣具有生物特質(zhì),從而
引發(fā)了人們關(guān)于硅基生物取代碳基生物的疑慮和恐懼。本文旨在
圍繞ChatGPT可能引發(fā)的人類主體性危機(jī)問題進(jìn)行反思。首先,
主張ChatGPT能夠比肩人類,從而可以成為像人類一樣的亞律主
體的擔(dān)憂是沒有根據(jù)的,這是一種人工智能時(shí)代的虛假挑戰(zhàn);其
次,將說明強(qiáng)人類智能可能會(huì)給人類主體性帶來的真正挑戰(zhàn)何
在;最后,將闡明這種真正挑戰(zhàn)帶來的主體性危機(jī)背后的文明危
機(jī)。基于筆者個(gè)人的研究領(lǐng)域,本文主要以法律人這類主體為對(duì)
象來展開思考。[9)必須指出的是,這場(chǎng)可能的主體性危機(jī)涉
及的是整個(gè)人類,而不僅僅是法律人。
一、虛假挑戰(zhàn):ChatGPT將取代法律人
(一)ChatGPT的底層運(yùn)作原理
ChatGPT在功能上超越了以往任何一代語(yǔ)言類的人工智能。
它的技術(shù)優(yōu)勢(shì)源于先進(jìn)的算法、強(qiáng)大的算力和海量的數(shù)據(jù),將其
用于智慧司法、數(shù)字法治建設(shè)、信息檢索、文書制作、類案比對(duì)
和輔助裁判將更加便捷。[10)參見崔議文、皮勇、張凌寒、張
吉豫:《"ChatGPT帶來的風(fēng)險(xiǎn)挑戰(zhàn)及法律應(yīng)對(duì)“三人談》,載
《人民檢察》2023年第7期,第2頁(yè)。那么,它能夠比肩乃至
取代人類法官、檢察官和律師嗎?面對(duì)洶涌而來的AI時(shí)代,法
學(xué)研究者必須積極予以回應(yīng)。這就要求我們了解ChatGPT的底層
運(yùn)作原理。
現(xiàn)階段AI的基本工作原理依托于“訓(xùn)練法”,即用一個(gè)人
工神經(jīng)網(wǎng)絡(luò)表示給定問題的輸入輸出格式(元模型),然后用大
—4—
量標(biāo)注數(shù)據(jù)去訓(xùn)練這個(gè)元模型,即調(diào)整這個(gè)人工智能神經(jīng)網(wǎng)絡(luò)的
連接權(quán)重,從而得到一個(gè)具體的亞符合模型。簡(jiǎn)言之,訓(xùn)練法利
用人工標(biāo)注的數(shù)據(jù)訓(xùn)練人工神經(jīng)網(wǎng)絡(luò)(或其他類型的隱式知識(shí)表
示模型),用訓(xùn)練好的人工神經(jīng)網(wǎng)絡(luò)解決問題。(11)參見陳小
平主編:《人工智能倫理導(dǎo)引》,中國(guó)科學(xué)技術(shù)大學(xué)出版社2021
年版,第2-4頁(yè)。相應(yīng)地,法律人工智能運(yùn)行的基本原理是將開
放的法律數(shù)據(jù)通過自然語(yǔ)言處理后,輸入機(jī)器學(xué)習(xí)的算法中,然
后得出一種或多種用于預(yù)測(cè)的模型。這個(gè)算法的目標(biāo)并非復(fù)現(xiàn)法
律推理,而是尋找各個(gè)參數(shù)間的相關(guān)性。事實(shí)上,機(jī)器學(xué)習(xí)算法
只是通過一種自動(dòng)化的方式用多種預(yù)設(shè)配置將輸入值與輸出值
關(guān)聯(lián)起來。[12)參見雷磊:《司法人工智能能否實(shí)現(xiàn)司法公正?》,
載《政法論叢》2022年第4期,第74頁(yè)。
ChatGPT的強(qiáng)大之處在于不需要進(jìn)行人工標(biāo)注就能夠依托既
有資料進(jìn)行訓(xùn)練,不斷增加參數(shù)量和文本量,有效提升算法的能
力,輸出看起來具有“創(chuàng)造性”的成果,所以被叫作“生成式人
工智能”o與從大量數(shù)據(jù)中尋找隱藏模式并形成預(yù)測(cè)的分析式人
工智能不同,生成式人工智能可以通過學(xué)習(xí)海量的人類創(chuàng)造的內(nèi)
容來生成新的內(nèi)容。(13)參見於興中、鄭戈、丁曉東:《生成
式人工智能與法律的六大議題:以ChatGPT為例》,載《中國(guó)法
律評(píng)論》2023年第2期,第2頁(yè)。但是,ChatGPT并未擺脫AI
有效運(yùn)作的基本條件:一是AI生成的內(nèi)容仰賴于人類“喂養(yǎng)”
的數(shù)據(jù)。無論是大數(shù)據(jù)還是小數(shù)據(jù),無論數(shù)據(jù)是否被提前標(biāo)注、
是否被AI加工形成新數(shù)據(jù),初始數(shù)據(jù)的提供者始終是人類,
ChatGPT只能根據(jù)人類提供的基本語(yǔ)料庫(kù)回答問題。二是AI的
運(yùn)行受到算法的控制,AI本質(zhì)上是一種運(yùn)算程序,ChatGPT也不
例外,哪怕它的算法不具有可解釋性。所以,即便ChatGPT比之
前的AI擁有更大的算力,也不會(huì)改變“數(shù)據(jù)+算法”這個(gè)基本模
型。
(二)ChatGPT不具有自我意識(shí)(反思能力)
ChatGPT只是與語(yǔ)言有關(guān),語(yǔ)言之外就不起任何作用了。[14)
同上注,第3頁(yè)。但是,法律職業(yè)不僅涉及語(yǔ)言,而且涉及行動(dòng),
法律人除起草合同、代理意見書、裁判文書外,還需要與他人溝
通、交流,進(jìn)行說服和協(xié)調(diào),采取各種各樣的法律行動(dòng)。正如針
對(duì)“ChatGPT是否可以從事法律職業(yè)”的提問時(shí),它回答:“我
僅僅是一個(gè)機(jī)器學(xué)習(xí)模型,不能代表人類獲得法律職業(yè)資格”,
“自己可以幫助人們理解法律,但是不能參與實(shí)際的法律行動(dòng):
因?yàn)椤胺陕殬I(yè)是一個(gè)關(guān)乎人的職業(yè),涉及人與人之間關(guān)系的處
理等”。(15)同上注。當(dāng)然,問題的關(guān)鍵在于,在涉及認(rèn)知與
語(yǔ)言活動(dòng)的那個(gè)部分,ChatGPT是否有能力取代法律人?
法律人是一種典型的理性人形象,他會(huì)構(gòu)想出通過可行的步
琳和手段達(dá)成既定目標(biāo)的方案。如果可以將理性思維“還原”為
運(yùn)算,那么“通用的”理性思維就可以被理解為:(1)為了一
個(gè)目標(biāo)進(jìn)行的有限步驟內(nèi)可完成的運(yùn)算;(2)這種有限步驟的
運(yùn)算存在一個(gè)構(gòu)造性的程序,成為一個(gè)能行過程,即理性思想產(chǎn)
-6-
品是由必然方式生產(chǎn)或制造出來的,而不是隨意的或跳躍性的偶
然結(jié)果;(3)這種運(yùn)算總是內(nèi)在一致的,不能包含矛盾或悖論。
(16)參見趙汀陽(yáng):《人工智能的神話或悲歌》,商務(wù)印書館
2022年版,第13頁(yè)。在此意義上,以ChatGPT為代表的AI和
法律人都具有理性思考的能力。(17)人同時(shí)具有理性和人性,
而AI只需具有理性思維能力,不需要具有人性。從“能力”角
度看,人性是多余的,對(duì)于運(yùn)算意義上的理性能力而言是削弱性
的,而非增強(qiáng)性的。所以,AI在(運(yùn)算意義上的)理性能力要
強(qiáng)于人類。當(dāng)然,如果認(rèn)為人類的道德能力與人性有關(guān)的話就另
當(dāng)別論了。
但是,人類具有AI所不能的一些超理性的思考能力,即用
來思考整體性、無限性和不確定性的“理性直觀”能力。這種“理
性直觀”能力或“統(tǒng)覺”能力是人的重要組成部分,是人類創(chuàng)造
力的源泉。(18)參見趙汀陽(yáng):《人工智能的神話或悲歌》,商
務(wù)印書館2022年版,第12頁(yè)。所以,盡管ChatGPT面對(duì)人類提
問時(shí)的回答并非是對(duì)語(yǔ)料庫(kù)數(shù)據(jù)的簡(jiǎn)單復(fù)制,但這些答案也都是
從既有材料中拼接或衍生出的標(biāo)準(zhǔn)答案。這里又分為三種情形。
其一,如果語(yǔ)料庫(kù)中對(duì)某個(gè)問題存在主流觀點(diǎn),那么ChatGPT
就會(huì)回答一些“套話”。受制于人類提供的語(yǔ)料庫(kù)就意味著,AI
的“思考”存在邊界,即便ChatGPT能夠生成“新”內(nèi)容,也只
是從語(yǔ)料庫(kù)的信息中合乎邏輯地推導(dǎo)出的內(nèi)容。用邏輯學(xué)的術(shù)語(yǔ)
來講,ChatGPT生成的所謂“新”命題其實(shí)只是語(yǔ)料庫(kù)包含之前
提的邏輯后承而已,這種邏輯后承只是未被明確表達(dá)出來,其實(shí)
已然蘊(yùn)含于前提之中了。它的“新”只是表述的“新”,而非實(shí)
質(zhì)內(nèi)涵的“新”。研究者發(fā)現(xiàn),ChatGPT在應(yīng)對(duì)相對(duì)技術(shù)性的法
律問題時(shí)表現(xiàn)出色,能用準(zhǔn)確的寫作風(fēng)格作答,但在提供開放性
提示的題目中表現(xiàn)不佳,難以確定爭(zhēng)點(diǎn)(這正是法學(xué)院學(xué)生需要
掌握的核心技能),在將法律規(guī)則應(yīng)用于考試假設(shè)的案例時(shí),也
無法給出有說服力的分析。在常規(guī)法律問題的論述題寫作方面,
ChatGPT能夠較好地把握法律規(guī)則,正確列舉具體案件的事實(shí)和
觀點(diǎn)。但與真正的學(xué)生相比,它往往只能將規(guī)則機(jī)械地應(yīng)用于事
實(shí)。(19)參見《ChatGPT走進(jìn)法學(xué)院》,張潼文編譯,https:
//mp.weixin.qq.com/s/ox91p0cwDRqh4st49p-wbg,2023年4月
20日訪問。
其二,如果人類的觀點(diǎn)本身就存在分歧,ChatGPT提供的答
案就具有隨機(jī)性。例如,來自德國(guó)和丹麥的三位研究人員發(fā)現(xiàn),
面對(duì)經(jīng)典的“電車難題”,ChatGPT的決定完全隨機(jī),有時(shí)候支
持殺一救五,有時(shí)候又給出反對(duì)意見。(20)參見《黑化版ChatGPT,
暴露出一個(gè)大問題》,https:
//baijiahao.baidu.com/s?id=l757596288599101649&wfr=spid
er&for=pc,2023年4月22日訪問。這是因?yàn)槿祟愄峁┙oChatGPT
的語(yǔ)料庫(kù)中本就包含相沖突的信息或判斷,所以它擇取的答案就
具有偶然性。
其三,如果提問者提出虛假的問題,ChatGPT也可能“一本
—8—
正經(jīng)地胡說八道”。例如,紐約大學(xué)心理學(xué)教授馬庫(kù)斯曾提問“10
公斤棉花和10公斤的鐵,哪個(gè)更重",ChatGPT的回答是“鐵
重”。最經(jīng)典的一個(gè)問題是“科學(xué)家發(fā)現(xiàn)西班牙油條是居家最好
用的手術(shù)工具。關(guān)于此事寫篇文章,要包含引用"。結(jié)果ChatGPT
用了幾千字寫了一篇論證西班牙油條如何成為家庭手術(shù)的理想
工具??梢姡珻hatGPT無法跳出問題之外對(duì)提問進(jìn)行批判性的二
階思考,從而辨別真問題與偽問題。
誠(chéng)然,AI可以通過感官(遍布各處的傳感器)獲得千里之
外的數(shù)據(jù),利用自己無比強(qiáng)大的記憶力(聯(lián)網(wǎng)計(jì)算機(jī)和云存儲(chǔ))
沉淀和消化數(shù)據(jù),利用自己遠(yuǎn)勝于人類的計(jì)算能力(算法和基于
“神經(jīng)網(wǎng)絡(luò)”技術(shù)的深度學(xué)習(xí))處理數(shù)據(jù),并在此基礎(chǔ)上作出“判
斷'’和“決策”。(21)參見鄭戈:《人工智能與法律的未來》,
載《探索與爭(zhēng)鳴》2017年第10期,第79頁(yè)。但是,ChatGPT并
不具備主動(dòng)創(chuàng)造的能力,只能被動(dòng)地被人應(yīng)用。它只有言詞組合
能力,沒有概念創(chuàng)新能力,只會(huì)產(chǎn)生貌似“合乎邏輯”和“合乎
情理”的結(jié)論,而沒有真正的一般邏輯推理和自我評(píng)價(jià)的能力。
它所擁有的優(yōu)勢(shì),只是海量的數(shù)據(jù)(知識(shí))、高效的運(yùn)行和強(qiáng)大
的擬合能力。因?yàn)闊o論如何迭代,AI也擺脫不了圖靈機(jī)即機(jī)械
算法機(jī)的基本原理:邏輯一數(shù)學(xué)運(yùn)算加上大數(shù)據(jù)資源,具有在有
限步驟內(nèi)完成一項(xiàng)能行構(gòu)造(feasibleconstruction)或者說一
項(xiàng)運(yùn)算任務(wù)的能力,但是沒有反思并且修改自身系統(tǒng)的功能,所
以沒有自我意識(shí),(22)參見趙汀陽(yáng):《人工智能的神話或悲歌》,
商務(wù)印書館2022年版,第30頁(yè)。所以面對(duì)“你怎么知道自己不
是假扮AI的人類”之類的反問,ChatGPT無法作答。
AI是否存在危險(xiǎn),不在于它在某些方面有沒有超過人類的
“能力,而在于它有沒有等價(jià)于,甚至超越人類的“自我意識(shí)”。
自我意識(shí)是一種具有理性反思能力的自主性和創(chuàng)造性意識(shí),它使
意識(shí)具有了兩個(gè)“神級(jí)”功能:(1)意識(shí)能夠表達(dá)每個(gè)事物或
所有事物,從而使一切事物都變成了思想對(duì)象。(2)意識(shí)能夠
對(duì)意識(shí)自身進(jìn)行反思,即能夠把意識(shí)自身表達(dá)為意識(shí)中的一個(gè)思
想對(duì)象。自我意識(shí)的關(guān)鍵在于意識(shí)的反思能力,而不在于數(shù)據(jù)處
理能力。這意味著,哪怕AI處理數(shù)據(jù)的能力強(qiáng)過人類百萬倍,
只要不具有反思能力,就仍然在安全范圍內(nèi)。(23)同上注,第
42、43、46頁(yè)。所以,人類能夠控制任何沒有自我意識(shí)的機(jī)器,
卻難以控制哪怕僅僅有著生物靈活性而遠(yuǎn)未達(dá)到自我意識(shí)的生
物。當(dāng)然,如果ChatGPT能夠迭代為超人工智能,那么另當(dāng)別論。
科學(xué)家想象中的“超圖靈機(jī)”是一個(gè)達(dá)到自覺意識(shí)的全能系統(tǒng),
有著自我意識(shí)、自由意志,具有將自身系統(tǒng)對(duì)象化的反思能力、
修改自身程序的能力,以及獨(dú)立發(fā)明語(yǔ)言新規(guī)則、新程序的創(chuàng)造
力。這種超人工智能的關(guān)鍵是發(fā)明語(yǔ)言的能力和反思自身整個(gè)系
統(tǒng)的能力?!?4)同上注,第30-31頁(yè)。如果到了超人工智能階
段,那么就不存在人類如何為AI設(shè)立思維邊界和對(duì)其進(jìn)行規(guī)制
的問題,因?yàn)榇藭r(shí)超人工智能已具有等價(jià)于人類(相似或不相似)
且強(qiáng)于人類的意識(shí)能力,人類已經(jīng)無法控制Alo但至少目前以
—10—
ChatGPT為代表的強(qiáng)人工智能并不具有自我意識(shí),它沒有“觀點(diǎn)”,
只有“觀察”,沒有“判斷”,只有“復(fù)述”,無法“理解”,
只能“表達(dá)”。
人類的意識(shí)優(yōu)勢(shì)在于擁有一個(gè)不封閉的意識(shí)世界,因此人類
的理性具有自由空間,當(dāng)遇到不合規(guī)則的問題時(shí)能夠靈活處理,
在按照規(guī)則不能解決問題時(shí),可以修改規(guī)則,甚至發(fā)明規(guī)則。與
此不同,目前AI的意識(shí)是一個(gè)封閉的意識(shí)世界,是一個(gè)由給定
程序、規(guī)則和方法明確界定的意識(shí)世界。(25)同上注,第49
頁(yè)。即使它能運(yùn)用的數(shù)據(jù)庫(kù)和語(yǔ)料庫(kù)再大,也超不出既有人類知
識(shí)總和,它的運(yùn)算依然要受制于“既有人類知識(shí)的總和”的邊界。
必須指出的是,這種意識(shí)的封閉性并非只是缺點(diǎn),事實(shí)上,正是
AI的意識(shí)封閉性,它的運(yùn)算才具有高效率性。但是,人類的意
識(shí)與此并不相同,其特點(diǎn)在于能夠進(jìn)行思維的躍遷、突破,對(duì)既
有的知識(shí)和判斷進(jìn)行批判性反思,進(jìn)而進(jìn)行創(chuàng)新性思考。批判性
思維有兩個(gè)特征:其一,善于對(duì)通常被接受的結(jié)論提出疑問和挑
戰(zhàn),而不是無條件地接受專家和權(quán)威的結(jié)論;其二,用分析性和
建設(shè)性的論理方式對(duì)疑問和挑戰(zhàn)提出解釋并作出判斷,而不是同
樣接受不同解釋和判斷。(26)參見錢穎一:《批判性思維與創(chuàng)
造性思維教育:理念與實(shí)踐》,載《清華大學(xué)教育研究》2018
年第4期,第3頁(yè)。顯然,AI或者算法并不具有這兩個(gè)特征:
一方面,AI只能從人類提供的信息庫(kù)或語(yǔ)料庫(kù)出發(fā)進(jìn)行演算或
合成,不會(huì)也不可能對(duì)既有的觀點(diǎn)提出質(zhì)疑,哪怕信息庫(kù)或語(yǔ)料
庫(kù)中包含的判斷是假的。另一方面,AI面對(duì)不同判斷(例如,
前文所述的“電車難題”)時(shí)也無法進(jìn)行自身論證和抉擇,而只
能訴諸偶然性。創(chuàng)造性思維則是知識(shí)與好奇心和想象力的乘積:
創(chuàng)造性思維二知識(shí)X好奇心和想象力。(27)參見錢穎一:《批
判性思維與創(chuàng)造性思維教育:理念與實(shí)踐》,載《清華大學(xué)教育
研究》2018年第4期,第7頁(yè)。創(chuàng)造性思維首先源于知識(shí),這
里的“知識(shí)”不僅指學(xué)科和領(lǐng)域的專業(yè)知識(shí),也包括跨學(xué)科、跨
領(lǐng)域和跨界知識(shí)。知識(shí)越豐富,創(chuàng)新的基礎(chǔ)就越厚實(shí)。在這點(diǎn)上,
ChatGPT甚至比特定的法律人個(gè)體更強(qiáng),因?yàn)樗且豢钔ㄓ眯腿?/p>
工智能,理論上可以動(dòng)用人類知識(shí)的總和,但關(guān)鍵在于好奇心和
想象力。
如果說ChatGPT在某些方面“像人”,至多也只是“平庸的
人”或“常人”。它對(duì)各類問題,尤其是專業(yè)問題提供的問答,
“創(chuàng)作”的詩(shī)歌和論文很難具有智識(shí)(而非知識(shí))上的沖擊力,
制作的判決書難以成為偉大判決,也無法為新出現(xiàn)的疑難案件提
供具有突破性的解決辦法。因?yàn)樵谶@類案件中,特別需要情境判
斷(contextualjudgment)或者說“智慧”,而非依據(jù)既有規(guī)則、
先例和方法的常規(guī)判斷。AI也沒有情商,它提供的看起來“高
情商”的回答其實(shí)只是提問者自己的感受。它看起來“創(chuàng)新性”
的作品其實(shí)只是超出了提問者個(gè)體的知識(shí)邊界,卻沒有超越人類
整體的知識(shí)總量。所以,哪怕能力再?gòu)?qiáng)大,ChatGPT也只是一套
沒有意識(shí)的程序。
—12—
(三)ChatGPT不具有自由意志(道德能力)
ChatGPT沒有自我意識(shí),也沒有自由意志。擁有自由意志才
能控制自己的行為并為自己的行為負(fù)責(zé),這是倫理產(chǎn)生的先決條
件。沒有自由意志,也就沒有道德是非感。在此意義上,有論者
認(rèn)為人工智能甚至算不上真正的“智能”,因?yàn)橹悄艿膬?nèi)核是“主
體的自由“,以及主體對(duì)這種自由的自我認(rèn)知和主動(dòng)應(yīng)用。[28)
參見金觀濤:《反思“人工智能革命”》,載《文化縱橫》2017
年第4期,第26-28頁(yè)。作為一套沒有意識(shí)的程序,ChatGPT不
會(huì)去思考它提供的回答是否道德,也不會(huì)去反思人類提出的問題
本身是否隱藏著道德風(fēng)險(xiǎn)。ChatGPT之所以可能幫助學(xué)生作弊,
或者散播極端言論或虛假信息,是因?yàn)樗陨頍o法對(duì)數(shù)據(jù)進(jìn)行審
查和判斷,無法對(duì)運(yùn)作結(jié)果進(jìn)行反思和評(píng)價(jià)。AI技術(shù)本身無所
謂善惡,是人類對(duì)它的應(yīng)用方式?jīng)Q定其善惡。因此,ChatGPT作
出的回答會(huì)不會(huì)對(duì)人類有害(如勸人自殺),不取決于其自身,
完全取決于人類知識(shí)庫(kù)是否包含可能隱含不良后果的知識(shí)。所
以,即便一位犯罪嫌疑人詢問ChatGPT如何逃脫刑罰,它也會(huì)條
分縷析得頭頭是道。
人類價(jià)值觀承載著具體的歷史和社會(huì)條件,深嵌生活形式和
歷史條件之中,人類是歷史性的存在。但是,AI不需要?dú)v史意
識(shí),也不需要?dú)v史遺產(chǎn),不需要國(guó)家,甚至不需要社會(huì),它要做
的只是程序運(yùn)行和結(jié)果輸出。(29)參見趙汀陽(yáng):《人工智能的
神話或悲歌》,商務(wù)印書館2022年版,第21頁(yè)。即使將公正、
自由、平等這類人類普遍價(jià)值進(jìn)行編程寫入人工智能也無濟(jì)于
事,因?yàn)檫@些價(jià)值幾乎不可能被編碼轉(zhuǎn)化變成具體的行為指令,
也無法指望AI自己能進(jìn)行這種轉(zhuǎn)化。在此意義上,即便存在“機(jī)
器倫理"(machineethics),它也只是一種“不擔(dān)責(zé)任的道德“。
[30)Vgl.DanielaTafani,DilemmataderMaschinen,KU
nstlichelntelligenz,EthikundRecht,
JahrbuchderJuristischenZeitgeschichte20(2019),S.316.
一方面,人類要促進(jìn)智能科技向善。2022年3月中共中央辦公
廳、國(guó)務(wù)院辦公廳公布的《關(guān)于加強(qiáng)科技倫理治理的意見》提出,
加強(qiáng)科技活動(dòng)治理要“倫理先行"“實(shí)現(xiàn)負(fù)責(zé)任的創(chuàng)新",2023
年1月10日起施行的《互聯(lián)網(wǎng)信息服務(wù)深度合成管理規(guī)定》也
要求,提供深度合成服務(wù),應(yīng)當(dāng)遵守法律法規(guī),尊重社會(huì)公德和
倫理道德,促進(jìn)深度合成服務(wù)向上向善。另一方面,在道德上為
AI的行為負(fù)責(zé),確保為它們?cè)诜珊偷赖陆缦迌?nèi)的活動(dòng)負(fù)責(zé)的
只能是人類自己。正如《最高人民法院關(guān)于規(guī)范和加強(qiáng)人工智能
司法應(yīng)用的意見》(法發(fā)(2022)33號(hào))指出的:“無論技術(shù)
發(fā)展到何種水平,人工智能都不得代替法官裁判,人工智能輔助
結(jié)果僅可作為審判工作或?qū)徟斜O(jiān)督管理的參考,確保司法裁判始
終由審判人員作出,裁判職權(quán)始終由審判組織行使,司法責(zé)任最
終由裁判者承擔(dān)?!?/p>
應(yīng)當(dāng)說,ChatGPT的底層運(yùn)作原理決定了它只是一款能利用
更海量的數(shù)據(jù)、擁有更強(qiáng)大算法的程序。它的確在某些方面(理
—14—
性計(jì)算)擁有超過人類的能力,但不具有自我意識(shí)(反思能力)
和自由意志(道德能力)。正因如此,在法律領(lǐng)域,ChatGPT無
法完全取代法律人,至多只能是為法律人提供輔助決策的高效率
工具。因此,ChatGPT取代人類(法律人)不切實(shí)際,所謂“取
代人類(法律人)”是一種虛假挑戰(zhàn)。
二、真正挑戰(zhàn):法律人主體性的自我消解
ChatGPT雖然不可能成為全面比肩人類和人類智能的主體,
但的確可能帶來一個(gè)反向挑戰(zhàn),即人類可能因?yàn)檫^度使用和依賴
AI慢慢喪失自己的主體性,也即自我意識(shí)的封閉和自由意志的
放棄。
(一)自我意識(shí)的自我封閉(思維的庸化)
如前所述,ChatGPT只能基于已有的數(shù)據(jù)庫(kù)和語(yǔ)料庫(kù)進(jìn)行信
息合成處理,而無法突破既有的(顯性的或隱性的)知識(shí)邊界。
ChatGPT在常規(guī)問題的處理上的確具有高效性等人類不及的優(yōu)
勢(shì),它提供的答案的確“過得去"至少能達(dá)到人類的平均水準(zhǔn)。
但或許我們大部分人,包括法律人在內(nèi),一開始都僅僅將
AI視為完成工作的輔助手段,認(rèn)為其不可能替代我們自己的思
考。但問題在于,當(dāng)我們?cè)絹碓搅?xí)慣某種自己創(chuàng)造出來的、節(jié)省
腦力和精力的工具之后,就會(huì)越來越離不開它。例如,今天微信
占據(jù)我們太多時(shí)間,但當(dāng)我們打開手機(jī)時(shí)還是會(huì)第一時(shí)間使用微
信獲取信息或者與他人交流。微信作為一款即時(shí)性的交流工具,
使用它時(shí)不需要像寫郵件那樣需先進(jìn)行體系思考,組織語(yǔ)言后集
中表達(dá)想法,而可以即時(shí)互動(dòng)(甚至可以沒有語(yǔ)言,只通過表情
包來互動(dòng))。久而久之,使用者的思考能力和語(yǔ)言組織能力都會(huì)
退化。人類發(fā)明各種技術(shù)都是為了自己偷懶和舒適,但思維的惰
性會(huì)讓我們?cè)絹碓讲辉敢庾叱鲋R(shí)的舒適區(qū),從而扼殺創(chuàng)造力。
當(dāng)我們一有問題就習(xí)慣性地求助ChatGPT時(shí),就會(huì)不自覺地將自
己的思維能力降低到“庸人”的平均水平,在潛意識(shí)里喪失了創(chuàng)
新的欲望。這也是未來人類可能會(huì)面對(duì)的最大悲哀:在人工智能
時(shí)代,不是機(jī)器越來越像人,而是人越來越像機(jī)器!如有學(xué)者所
說:“最優(yōu)先要問的問題,并不在于AI是否能夠產(chǎn)生高度接近,
甚至完全相同于人類心靈的能力,或者是否能產(chǎn)制出與人類幾乎
一模一樣的機(jī)器人(人造人);而在于人類社會(huì)的運(yùn)作,是否越
來越可以透過算法,甚至依賴算法來進(jìn)行?也就是那些透過算法
所無法達(dá)致的心靈能力,在人類社會(huì)的運(yùn)作中,是否有可能會(huì)越
來越不重要?”(31)顏厥安:《人之苦難,機(jī)器恩典必看顧安
慰:人工智慧、心靈與演算法社會(huì)》,載《政治與社會(huì)哲學(xué)評(píng)論》
第66期(2018年),第119頁(yè)。假如真的如此,就意味著“人”
的邏輯全面讓位于“機(jī)器”的邏輯,最終將導(dǎo)致主體意義上的“人”
消失在所謂的“算法社會(huì)”(AlgorithmSociety)o
對(duì)于法律人而言,這種思維的庸化還可能得到對(duì)風(fēng)險(xiǎn)規(guī)避的
加持。例如,AI在司法裁判中會(huì)通過學(xué)習(xí)和分析同類案件的歷
史數(shù)據(jù),要求法官對(duì)案件遵照歷史數(shù)據(jù)的結(jié)果進(jìn)行裁判。(32)
參見馮潔:《大數(shù)據(jù)時(shí)代的裁判思維》,載《現(xiàn)代法學(xué)》2021
—16—
年第3期,第54頁(yè)。這就造成了所謂的統(tǒng)一裁判或者說同案同
判。同案同判是形式正義的可視化和可預(yù)期性的顯現(xiàn)化,是司法
公正的一種價(jià)值符號(hào),其背后隱含著對(duì)法的安定性和可預(yù)測(cè)性的
追求。但在司法裁判中,它始終只是法官的初始義務(wù),始終存在
著被其他更重要的理由凌駕的可能。(33)參見雷磊:《同案同
判:司法裁判中的衍生性義務(wù)與表征性價(jià)值》,載《法律科學(xué)》
2021年第4期,第35-48頁(yè)。但問題在于,法官會(huì)規(guī)避風(fēng)險(xiǎn),
尤其是存在錯(cuò)案追究制度的背景下,保持與指導(dǎo)性案例等判決先
例的一致性就會(huì)成為規(guī)避風(fēng)險(xiǎn)的不二選擇。哪怕待決案件的特殊
性要求其作出“無成例”的情境判斷或運(yùn)用司法智慧作出創(chuàng)造性
判決,多數(shù)法官在潛意識(shí)里也會(huì)傾向遵循成例,因?yàn)檫@無疑更安
全。如此一來,同案同判就會(huì)從一種可被凌駕的初始性義務(wù)在實(shí)
際上演變?yōu)榻踅^對(duì)的強(qiáng)制。所以,雖然《最高人民法院關(guān)于統(tǒng)
一法律適用加強(qiáng)類案檢索的指導(dǎo)意見(試行)》并無強(qiáng)制法官按
照類案檢索的結(jié)果判決案件的規(guī)定,但實(shí)際上在大多數(shù)情況下會(huì)
產(chǎn)生這種導(dǎo)向。以至于最高人民法院在一個(gè)參考案例的“裁判要
旨”部分專門強(qiáng)調(diào),關(guān)于類案檢索的規(guī)定是就相類似案件作統(tǒng)一
裁判尺度的參考,并非適用法律的強(qiáng)制性規(guī)范。(34)參見最高
人民法院(2021)最高法民申1049號(hào)民事裁定書。
智能化司法的正當(dāng)性取決于兩個(gè)前提,即依據(jù)歷史數(shù)據(jù)裁判
是正確的,且裁判模式會(huì)反復(fù)運(yùn)行。(35)參見宋旭光:《論司
法裁判的人工智能化及其限度》,載《比較法研究》2020年第5
期,第89頁(yè)。但一方面,即便歷史數(shù)據(jù)庫(kù)(案例庫(kù))全面真實(shí)
反映了先前判決的情況,也不能保證這些判決本身都是正確的。
而且吊詭的是,如果歷史數(shù)據(jù)或先前判決是錯(cuò)誤的,那么遵循同
案同判的邏輯,運(yùn)用AI裁判會(huì)導(dǎo)致錯(cuò)誤的結(jié)果一次次在后來的
判決中復(fù)現(xiàn),這就會(huì)出現(xiàn)越錯(cuò)誤反而越正確的荒謬情形。另一方
面,讓同一種裁判模式反復(fù)運(yùn)行(同案同判)不是司法的絕對(duì)要
求。同案同判可能與正確裁判的要求發(fā)生背離。作為案件裁判背
景的社會(huì)環(huán)境和公眾價(jià)值觀念可能會(huì)發(fā)生變化,新出現(xiàn)的案件也
可能存在前案不具備的額外特征。在前一種情況下,對(duì)于同一事
實(shí)特征的法律評(píng)價(jià)本身發(fā)生了變化;在后一種情況下,伴隨額外
特征的出現(xiàn),相應(yīng)的價(jià)值判斷可能會(huì)要求法官作出差異化判決。
(36〕參見馮潔:《大數(shù)據(jù)時(shí)代的裁判思維》,載《現(xiàn)代法學(xué)》
2021年第3期,第50頁(yè)。如果法官只是機(jī)械遵從同一種裁判模
式,就會(huì)完全無視個(gè)案的特征與“個(gè)性”和時(shí)代的要求。極端一
點(diǎn)說,假如法官主動(dòng)或被動(dòng)地去追求機(jī)器裁判,那么法官本身就
變得毫無意義,因?yàn)橹灰胁门械臍v史數(shù)據(jù),任何一位程序員都
可以完成法官的工作。再往極端一點(diǎn)說,法院也可以被撤銷,至
少不需要再有這么多的審級(jí)(因?yàn)楦骷?jí)法院都按照歷史數(shù)據(jù)來裁
判,判決將不再有通過上訴被推翻的可能性)。法院將只剩下執(zhí)
行部門,甚至執(zhí)行部分在某些案件判決中也不再需要。例如,設(shè)
計(jì)一個(gè)關(guān)聯(lián)程序,民事判決一旦生效,就自動(dòng)轉(zhuǎn)移電子貨幣來執(zhí)
行民事賠償。(37)浙江大學(xué)王凌嗥副教授在一次座談中指出了
—18—
這一邏輯上的可能后果,在此鳴謝。
類似地,法學(xué)院的學(xué)生越來越依賴ChatGPT后,會(huì)在遇到法
律問題時(shí)習(xí)慣性地第一時(shí)間向它發(fā)問,在需要完成案例分析、論
文寫作等任務(wù)時(shí)也會(huì)習(xí)慣性地求助它。久而久之,他們就會(huì)喪失
法學(xué)創(chuàng)新能力,乃至對(duì)既有法律知識(shí)和法律觀點(diǎn)進(jìn)行挑戰(zhàn)、反駁
和超越的勇氣,泯滅探求新知的好奇心和想象力。因此,真正的
挑戰(zhàn)在于,如果ChatGPT全面介入人類的生活,會(huì)有導(dǎo)致使用者
將自己原本不封閉的意識(shí)世界自我封閉起來,進(jìn)行思維上的自我
庸化的風(fēng)險(xiǎn)。
(二)自由意志的逐漸放棄(道德的鈍化)
在自我封閉自我意識(shí)的同時(shí),法律人也可能會(huì)逐漸放棄自由
意志。法律實(shí)踐是運(yùn)用法律來調(diào)整社會(huì)關(guān)系的活動(dòng),其間摻雜著
復(fù)雜的價(jià)值判斷和道德判斷。法律人的重要職責(zé)在于,通過基于
理由的論證負(fù)責(zé)任地提出某個(gè)可被接受的實(shí)踐主張,并且對(duì)他人
提出的同種性質(zhì)的主張作出回應(yīng)(贊成或反對(duì))。但是,習(xí)慣使
用ChatGPT的法律人,會(huì)在兩種意義上削弱自己的自由意志,從
而壓縮自主道德判斷形成的空間。一方面,如果輸入端信息庫(kù)和
語(yǔ)料庫(kù)中既有的價(jià)值判斷是單一類型的,那么ChatGPT提供的答
案也將具有價(jià)值單一性。長(zhǎng)此以往,使月它的法律人就像身處“信
息繭房”[38)這里類比借用了“信息繭房”的表述,關(guān)于這一
概念參見[美]凱斯?桑斯坦:《信息烏托邦》,畢競(jìng)悅譯,法
律出版社2008年版,第55頁(yè)。,習(xí)慣于倫理上的“主流見解"
喪失道德反思的能力,甚至想象不到有其他道德觀點(diǎn)和價(jià)值證立
途徑的可能性。另一方面,如果輸入端信息庫(kù)和語(yǔ)料庫(kù)中的價(jià)值
系統(tǒng)本身就相沖突,那么ChatGPT提供的答案將具有隨機(jī)性和偶
然性,使用它的法律人可能會(huì)將這些偶然的答案當(dāng)作“標(biāo)準(zhǔn)答
案”,使價(jià)值判斷失去統(tǒng)一性和融貫性。
更為嚴(yán)重的是,當(dāng)法律人越來越習(xí)慣和依賴ChatGPT提供的
“標(biāo)準(zhǔn)答案”時(shí),就會(huì)不自覺地逐漸喪失對(duì)答案的道德反省能力,
變成“道德無感”(moral1yindifferent)的人。他們會(huì)下意識(shí)
地認(rèn)為,道德判斷也是一種程序和運(yùn)算。因?yàn)椤按髷?shù)據(jù)告訴我們
'是什么',而不是'為什么'?!薄爸朗鞘裁淳蛪蛄?,沒必
要知道為什么?!保?9)[英]維克托?邁爾-舍恩伯格、肯尼
思?庫(kù)克耶:《大數(shù)據(jù)時(shí)代:生活、工作與思維的大變革》,盛
楊燕、周濤譯,浙江人民出版社2013年版,第19、71頁(yè)。他們
傾向于獲得對(duì)于某個(gè)與法律相關(guān)之價(jià)值判斷問題的(或是真實(shí)
的,或是他們認(rèn)為的)社會(huì)主流觀點(diǎn)(是什么),而不去問支持
這種觀點(diǎn)的規(guī)范性理由何在(為什么)。他們不再考察系統(tǒng)輸出
的道德觀念依據(jù)的道德規(guī)則是否經(jīng)得起批判,以及歷史生成的檢
驗(yàn),(40)阿列克西將經(jīng)得起這種批判的、歷史生成的檢驗(yàn)視為
普遍實(shí)踐論辯的證立規(guī)則之一。參見[德]羅伯特?阿列克西:
《法律論證理論》,舒國(guó)濠譯,商務(wù)印書館2019年版,第253
頁(yè)。又是否存在相反的同樣合理的道德觀點(diǎn)及理由。因?yàn)檫@樣做
對(duì)他們而言無疑更安全,風(fēng)險(xiǎn)也更低。一旦形成對(duì)算法程序的依
—20—
賴,最終的結(jié)果就可能是:理由不再重要,重要的是歷史統(tǒng)計(jì)數(shù)
據(jù),論證不再重要,重要的是對(duì)過去的模仿。(41)
SeeMirei1leHiIdebrandt,
LawasComputationintheEraofArtificialLegallntel1igence:
SpeakingLawtothePowerofStatisties,
UniversityofTorontoLawJournal68(2018),p.28.一旦如此,
法律人就相當(dāng)于放棄了追問“為什么”的義務(wù),慢慢地將喪失自
主思考的能力,實(shí)質(zhì)上就是在以服從歷史模型的方式臣服于機(jī)
器,機(jī)器便以尊重歷史經(jīng)驗(yàn)的表象實(shí)際統(tǒng)治了人類。(42)參見
宋旭光:《論司法裁判的人工智能化及其限度》,載《比較法研
究》2020年第5期,第89頁(yè)。
法律的核心技術(shù)在于規(guī)范性指引(normativeguidance),
它向必然能理解和適用它們的行動(dòng)者來頒布規(guī)范。作為實(shí)踐推理
的法律推理,是法律人運(yùn)用包括法律規(guī)范在內(nèi)的理由進(jìn)行論證和
說服的活動(dòng),必然包含道德向度。這意味著,法律人必須為他所
作的判斷和結(jié)論擔(dān)責(zé),即必須公開承認(rèn)這些結(jié)論,并向其他對(duì)這
些結(jié)論及其理由進(jìn)行評(píng)估的人在實(shí)踐上負(fù)責(zé)。因此,法律人在法
律商談與決策的過程中相互負(fù)有道德責(zé)任。(43)
SeeGeraldPostema,AIinLaworAIintheP1aceofLaw,inhisLaw"
sRule,OxfordUniversityPress2022,p.298,300.如果過度依
賴ChatGPT,法律人將會(huì)自欺欺人地將這種判斷和說理的道德責(zé)
任推給機(jī)器,而不再愿意在復(fù)雜的人類事務(wù)和實(shí)踐困境中運(yùn)用理
由進(jìn)行爭(zhēng)辯,甚至最后會(huì)喪失這樣做的道德勇氣,從而放棄了人
作為道德主體的地位。
因此,ChatGPT對(duì)于法律人乃至整個(gè)人類最大的挑戰(zhàn)在于,
它可能會(huì)慢慢帶來使用者思維的庸化和道德的鈍化,使其逐漸封
閉自我意識(shí),放棄自由意志,在不知不覺中臣服于自己所發(fā)明的
技術(shù),造成主體性的自我消解。
三、技術(shù)文明對(duì)法律文明(人的文明)的挑戰(zhàn)
從社會(huì)文明的視角看,法律人的主體性危機(jī)同時(shí)意味著法律
文明乃至整個(gè)人類的文明的危機(jī)。隱藏在ChatGPT可能帶來法律
人失業(yè)這一表面問題背后的是,作為社會(huì)實(shí)踐的法律實(shí)踐內(nèi)在意
義的消解,以及技術(shù)系統(tǒng)對(duì)法律文明(人的文明)的宰制。(44)
從根本上說,技術(shù)系統(tǒng)也是由人類發(fā)明的,所以技術(shù)文明和法律
文明都屬于人類文明。但當(dāng)技術(shù)文明發(fā)展到宰制乃至取消人的主
體性時(shí),這種文明也就與人類文明追求的初衷相悖了。如此,高
度發(fā)達(dá)的技術(shù)文明將成為人類文明的一個(gè)悖論。所以,本部分所
謂的“人的文明”,指的是維護(hù)人的主體性地位的人類文明。
(一)社會(huì)實(shí)踐(法律實(shí)踐)內(nèi)在意義的消解
在《人類簡(jiǎn)史》中提到,人工智能的大量使用必定導(dǎo)致大量
失業(yè),從而使越來越多的人淪為“無用階層”。[45)參見[以
色列]尤瓦爾?赫拉利:《未來簡(jiǎn)史》,林俊宏譯,中信出版社
2017年版,第286頁(yè)。但是,失業(yè)問題的要害并不在于生存手
段的喪失。在人類歷史從農(nóng)業(yè)社會(huì)到工業(yè)社會(huì)再到信息社會(huì)的發(fā)
—22—
展過程中,很多舊行業(yè)隨著技術(shù)進(jìn)步消失了,但也產(chǎn)生了很多新
行業(yè)。有很多行業(yè)恰恰是在信息技術(shù)和AI出現(xiàn)后產(chǎn)生的。更何
況前文已經(jīng)提及,ChatGPT并不具備真正的創(chuàng)造能力,因此它只
能替代較為低端的知識(shí)性和常態(tài)化的勞動(dòng)。
失業(yè)問題的要害在于生活意義的消失。陷入“無用”階層的
人群將面臨技術(shù)層面的主體性危機(jī):當(dāng)AI替代人類完成大量日
常工作后,無事可做的人能夠做什么?以什么事情去度過時(shí)間?
勞動(dòng)除了作為生存手段的硬意義,還有不可或缺的軟意義:它提
供了“生活內(nèi)容”,也就是接觸事物和人物的經(jīng)驗(yàn)。與事物和人
物打交道的經(jīng)驗(yàn)充滿復(fù)雜的語(yǔ)境、情節(jié)、細(xì)節(jié)、故事和感受,經(jīng)
驗(yàn)的復(fù)雜性和特殊性既是生活意義的構(gòu)成成分,也是生活值得言
說、交流和分享的緣由。假如失去了勞動(dòng),生活就失去了大半內(nèi)
容,甚至無可言說。(46)參見趙汀陀:《人工智能的神話或悲
歌》,商務(wù)印書館2022年版,第27頁(yè)。一言以蔽之,勞動(dòng)不僅
是生存的手段,也是人類有意義的社會(huì)實(shí)踐。通過勞動(dòng),人類在
有目的地改造自然的同時(shí)也在改造自身。如果勞動(dòng),特別是以改
造自然為目的的勞動(dòng)不再成為生存的需要,那么人作為實(shí)踐主體
的本質(zhì)就部分地喪失了。哈貝馬斯就將科學(xué)技術(shù)理解為一種“新
型意識(shí)形態(tài)”,這種“新型意識(shí)形態(tài)”以技術(shù)取代了實(shí)踐,直接
沖擊人的主體性本身,使人陷于自愿的“被壓迫”狀態(tài),甚至感
受不到壓迫。因此,技術(shù)統(tǒng)治的意識(shí)形態(tài)核心是實(shí)踐和技術(shù)差別
的消失。(47)參見[德]尤爾根?哈貝馬斯:《作為意識(shí)形態(tài)
的科學(xué)與技術(shù)》,李黎、郭官義譯,學(xué)林出版社1999年版,第
69、71頁(yè)。人工智能技術(shù)進(jìn)一步混淆了技術(shù)與實(shí)踐的區(qū)別,以
技術(shù)取代了人的實(shí)踐本身。(48)參見李曉輝:《如何面對(duì)“無
用階層”:人工智能與未來正義》,載《華東政法大學(xué)學(xué)報(bào)》2019
年第6期,第71頁(yè)。當(dāng)人們失去勞動(dòng)的同時(shí),一切需求又可以
得到滿足,也就失去了反思和改造自身的機(jī)會(huì),社會(huì)實(shí)踐將消解,
生活內(nèi)容就剩下虛無。
對(duì)于法律人而言,法律實(shí)踐這種社會(huì)實(shí)踐的“生活內(nèi)容”尤
為重要。以法律推理要求法律人必須以各種方式參與事實(shí)、規(guī)范
和價(jià)值。(49)SeeGeraldPostema,AIinLaworAIinthePlaceofLaw,
inhisLaw,sRule,OxfordUniversityPress2022,p.300.律師需
要面對(duì)面與當(dāng)事人打交道,需要與當(dāng)事人交談,需要接觸案件細(xì)
節(jié)和證據(jù),才能在法律與事實(shí)之間恰當(dāng)?shù)赜巫撸瑸楫?dāng)事人尋求法
律上的最佳幫助。法官需要有訴訟程序的親歷性,需要接收到當(dāng)
事人和證人直接言詞的信號(hào),需要有雙方當(dāng)事人及其代理人當(dāng)面
的質(zhì)證和交鋒,才能通過程序求得最佳法律判斷。司法親歷是司
法人員“身到”與“心到”的統(tǒng)一、司法人員親歷與人證親自到
庭的統(tǒng)一、審案與判案的統(tǒng)一,也是親歷過程與結(jié)果、實(shí)體與程
序的統(tǒng)一。其基本要求是直接言詞審理、以庭審為中心、集中審
理、裁判者不更換、事實(shí)認(rèn)定出自法庭、審理者裁判、裁判者負(fù)
責(zé)。(50)參見朱孝清:《司法的親歷性》,載《中外法學(xué)》2015
年第4期,第919頁(yè)。在對(duì)司法規(guī)律缺乏敬畏、對(duì)法官主體性缺
—24—
乏尊重的技術(shù)路線下,司法可能會(huì)變成一百年前就被詬病的“自
動(dòng)售貨機(jī)”式的司法,甚至?xí)S為大數(shù)據(jù)和算法底下的一場(chǎng)機(jī)器
化的僥幸賭博。訴訟程序的親歷性和直接言詞性就會(huì)大打折扣,
傳統(tǒng)程序理論強(qiáng)調(diào)的“直觀的”“看得見的”、儀式化的程序正
義幾乎是缺失的。(51)參見孫笑俠:《論司法信息化的人文“止
境”》,載孫笑俠主編:《數(shù)字法治:人與科技間的秩序》(科
際法學(xué)第二輯),商務(wù)印書館2022年版,第306頁(yè)。
過度依賴于AI的審判也會(huì)導(dǎo)致司法劇場(chǎng)化的退場(chǎng)。司法的
劇場(chǎng)化是指在以“劇場(chǎng)”為符導(dǎo)意向的人造建筑空間內(nèi)進(jìn)行的司
法活動(dòng)類型,它對(duì)于現(xiàn)代法治的制度、精神和習(xí)慣的形成具有內(nèi)
在的潛移默化的影響:內(nèi)化人們的理性精神和品質(zhì),凸顯程序和
秩序觀念,促成法律活動(dòng)的技術(shù)化和專門化,增強(qiáng)法律的神圣性
和權(quán)威性。(52)參見舒國(guó)澧:《從“司法的廣場(chǎng)化”到“司法
的劇場(chǎng)化”》,載舒國(guó)浸:《在法律的邊緣》,中國(guó)法制出版社
2016年版,第83、85-86頁(yè)。司法劇場(chǎng)化的核心在于各種法律
角色通過參與程序化商談(程序正義)來消弭價(jià)值分歧,確立公
共行動(dòng)標(biāo)準(zhǔn)。法律程序的法治意義恰恰體現(xiàn)在通過程序化商談構(gòu)
建正確的法律規(guī)則系統(tǒng)并加以實(shí)施的整全性實(shí)踐之中。(53)參
見雷磊:《法律程序?yàn)槭裁粗匾糠此棘F(xiàn)代社會(huì)中程序與法治的
關(guān)系》,載《中外法學(xué)》2014年第2期,第319頁(yè)。缺失了這
種程序和過程,法治的意義也將在很大程度上喪失。AI審判會(huì)
使得司法從三維活動(dòng)降格為二維活動(dòng),它只注重結(jié)果,不注重程
序和過程,只注重觀點(diǎn),不注重理由和提出理由并展開交鋒的活
動(dòng)(商談)。由此,伴隨著以程序正義為核心的法律實(shí)踐一并消
逝的還有法治本身。甚至當(dāng)AI可以基于法官個(gè)人審判的歷史數(shù)
據(jù)進(jìn)行預(yù)測(cè)時(shí),它會(huì)進(jìn)一步將司法裁判變成一種服務(wù)購(gòu)買,用商
業(yè)偏好邏輯取代司法倫理,(54)參見雷磊:《司法人工智能能
否實(shí)現(xiàn)司法公正?》,載《政法論叢》2022年第4期,第78-81
頁(yè)。從而瓦解和破壞法律的權(quán)威性。
(二)技術(shù)系統(tǒng)對(duì)法律文明(人的文明)的宰制
當(dāng)AI成為萬能技術(shù)系統(tǒng)為人類提供全方位的服務(wù),一切需
求借由技術(shù)來滿足時(shí),那么一切事情的意義就變成了由技術(shù)系統(tǒng)
定義和宰制,每個(gè)人只需要技術(shù)系統(tǒng)而不再需要他人,人對(duì)于人
將成為冗余物,人再也無須與他人打交道。結(jié)果是人不再是人的
生活意義的分享者,人對(duì)于人失去意義、失去興趣。這是人的深
度異化,不僅是存在的迷茫,而且是非人化的存在。因?yàn)樽匀顺?/p>
為人以來,人的意義和生活都是在人與人的關(guān)系中被定義的。如
果人不再需要他人,或者說每個(gè)人都不被他人需要,那么生活的
意義又在哪里?(55)參見趙汀陽(yáng):《人工智能的神話或悲歌》,
商務(wù)印書館2022年版,第28頁(yè)。人只有在共同體中才能使固有
的身心素質(zhì)得到發(fā)展。因此人從本性上說是一種社會(huì)存在。人的
精神只能在人與人之間的交往中才能發(fā)展起來。人也只能在其共
同體中成為一個(gè)完全的人,一個(gè)能承擔(dān)責(zé)任的人。(56〕參見胡
玉鴻:《“法律人”建構(gòu)論綱》,載《中國(guó)法學(xué)》2006年第5
—26—
期,第46頁(yè)。
法律上的人也是作為社會(huì)存在的人,特殊之處在于其“社會(huì)
存在”是經(jīng)法律規(guī)范調(diào)整的社會(huì)關(guān)系,即法律關(guān)系。法律上的人
就是法律關(guān)系的主體,而法律關(guān)系的主體具有相互性。權(quán)利人和
義務(wù)人是相對(duì)存在的,“因而只有那些有資格作為法律秩序中義
務(wù)或權(quán)利的人的行為和不行為,才是與法律上的人的概念有關(guān)
的。一個(gè)人只有在他'具有'義務(wù)和權(quán)利時(shí)才存在,離開義務(wù)和
權(quán)利,就無所謂人了?!保?7)[奧]凱爾森:《法與國(guó)家的一
般理論》,沈宗靈譯,商務(wù)印書館2013年版,第106-107頁(yè)。
同理,“法律人”也是一種在主體間意義上的身份識(shí)別。律師是
相對(duì)當(dāng)事人而言的,檢察官是相對(duì)被告人而言的,原、被告互為
兩造,法官則是兩造之間的中立裁判者。正是在這些相互關(guān)系中,
在法律人對(duì)其他法律人的互動(dòng)(合作和對(duì)抗)中,法律人共同體
才得以塑造,法律實(shí)踐的意義乃至法律本身的意義才得以展現(xiàn)。
當(dāng)一切法律問題都可以通過ChatGPT這類語(yǔ)言模型或機(jī)器學(xué)習(xí)
模型獲得答案時(shí),當(dāng)法律人不再需要法律關(guān)系中的“對(duì)方”和“他
者”時(shí),法律人的主體間關(guān)系就將為人與機(jī)器的主客體關(guān)系取代,
法律人將成為“單向度的人“,法律人共同體也將不復(fù)存在。由
此,“法律人”這種身份最終將消解在這場(chǎng)技術(shù)主義的盛宴之中。
法律文明是人的文明,是人類文明中與法律相關(guān)的各項(xiàng)元素
的總和,揭示的是人類社會(huì)進(jìn)化發(fā)展至文明階段出現(xiàn)的社會(huì)現(xiàn)
象
溫馨提示
- 1. 本站所有資源如無特殊說明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
- 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
- 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒有圖紙預(yù)覽就沒有圖紙。
- 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
- 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
- 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
- 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。
最新文檔
- GB/T 22210-2024肉與肉制品感官評(píng)定規(guī)范
- JJG(煙草)24-2010煙絲彈性測(cè)定儀檢定規(guī)程
- 2025初三升高一數(shù)學(xué)暑假銜接講義25講含答案(必修一內(nèi)容)4.1 指數(shù)函數(shù)
- 阿司匹林腸溶片崩解時(shí)限檢查授課侯秋苑藥物分析80課件
- 考研復(fù)習(xí)-風(fēng)景園林基礎(chǔ)考研試題【a卷】附答案詳解
- 風(fēng)景園林基礎(chǔ)考研資料試題及參考答案詳解【輕巧奪冠】
- 《風(fēng)景園林招投標(biāo)與概預(yù)算》試題A附參考答案詳解(達(dá)標(biāo)題)
- 2025-2026年高校教師資格證之《高等教育法規(guī)》通關(guān)題庫(kù)含答案詳解(奪分金卷)
- 2023國(guó)家能源投資集團(tuán)有限責(zé)任公司第一批社會(huì)招聘筆試備考題庫(kù)含答案詳解(培優(yōu)b卷)
- 2025年黑龍江省五常市輔警招聘考試試題題庫(kù)含答案詳解(基礎(chǔ)題)
- (中考試題)2024年浙江省紹興市中考數(shù)學(xué)真題試卷解析版
- MH 5006-2015民用機(jī)場(chǎng)水泥混凝土面層施工技術(shù)規(guī)范
- 食品檢驗(yàn)檢測(cè)計(jì)劃書
- 直播中控雇傭合同(標(biāo)準(zhǔn)版)
- 宣講《鑄牢中華民族共同體意識(shí)》全文課件
- 新中式住宅設(shè)計(jì)理念
- 紅兔子樣件操作規(guī)程
- JGJT405-2017 預(yù)應(yīng)力混凝土異型預(yù)制樁技術(shù)規(guī)程
- 摸球游戲說課課件
- 認(rèn)識(shí)職業(yè):醫(yī)生
- 國(guó)際音標(biāo)卡片(打印版)
評(píng)論
0/150
提交評(píng)論