【論人工智能的刑事責(zé)任主體地位8600字(論文)】_第1頁(yè)
【論人工智能的刑事責(zé)任主體地位8600字(論文)】_第2頁(yè)
【論人工智能的刑事責(zé)任主體地位8600字(論文)】_第3頁(yè)
【論人工智能的刑事責(zé)任主體地位8600字(論文)】_第4頁(yè)
【論人工智能的刑事責(zé)任主體地位8600字(論文)】_第5頁(yè)
已閱讀5頁(yè),還剩7頁(yè)未讀, 繼續(xù)免費(fèi)閱讀

下載本文檔

版權(quán)說(shuō)明:本文檔由用戶提供并上傳,收益歸屬內(nèi)容提供方,若內(nèi)容存在侵權(quán),請(qǐng)進(jìn)行舉報(bào)或認(rèn)領(lǐng)

文檔簡(jiǎn)介

論人工智能的刑事責(zé)任主體地位目錄TOC\o"1-3"\h\u28668一、選題背景及研究目的 一、選題背景及研究目的目前,我國(guó)還沒(méi)有專(zhuān)門(mén)的人工智能管理法律,存在著值得關(guān)注的法律問(wèn)題。最后,如果手術(shù)器械本身存在質(zhì)量問(wèn)題,導(dǎo)致醫(yī)療事故,手術(shù)器械的設(shè)計(jì)者或制造商必須對(duì)產(chǎn)品質(zhì)量負(fù)責(zé)。如果一些醫(yī)生在手術(shù)過(guò)程中嚴(yán)重違反和不負(fù)責(zé)任地違反相關(guān)醫(yī)療規(guī)則,則必須對(duì)醫(yī)療事故負(fù)責(zé)。目前,手術(shù)涉及人工智能,醫(yī)生需要參與手術(shù)過(guò)程。因此,我們?nèi)匀蛔裱鲜鲐?zé)任分配模式。然而,當(dāng)醫(yī)療人工智能手術(shù)發(fā)展到自動(dòng)化階段,即醫(yī)生不參與手術(shù),而是完全由機(jī)器人控制。在這樣的技術(shù)背景下,如果發(fā)生自動(dòng)醫(yī)療事故,由于自動(dòng)醫(yī)療設(shè)備的質(zhì)量問(wèn)題,按照以往的做法,自動(dòng)醫(yī)療設(shè)備的設(shè)計(jì)或制造商的責(zé)任不在自動(dòng)醫(yī)療違反醫(yī)療制度,沒(méi)有醫(yī)生。根據(jù)最初的模式,醫(yī)生不能承擔(dān)醫(yī)療事故的責(zé)任。同時(shí),自動(dòng)醫(yī)療仍然屬于人工智能的范疇,即它沒(méi)有識(shí)別和控制的能力,因此不能成為刑事責(zé)任的主體并承擔(dān)刑事責(zé)任。這意味著醫(yī)療事故的刑事責(zé)任不能轉(zhuǎn)移到全自動(dòng)醫(yī)療設(shè)備上。如果生產(chǎn)人員或醫(yī)務(wù)人員有可能自動(dòng)負(fù)責(zé)設(shè)備的生產(chǎn),是否假定在刑事事故產(chǎn)品質(zhì)量責(zé)任或醫(yī)療事故責(zé)任的情況下醫(yī)務(wù)人員將被轉(zhuǎn)移給醫(yī)務(wù)人員。當(dāng)前,刑法的社會(huì)條件和技術(shù)背景無(wú)時(shí)不刻不在發(fā)生著變化,當(dāng)下人工智能的技術(shù)以及相應(yīng)產(chǎn)品已經(jīng)做出了具有一定刑事風(fēng)險(xiǎn)的行為,根據(jù)科學(xué)技術(shù)更新速度,在不久的將來(lái)就會(huì)出現(xiàn)由人工智能操作失誤而出現(xiàn)的確定刑事風(fēng)險(xiǎn)。因此刑法應(yīng)具有一定的前瞻性,對(duì)人工智能問(wèn)題進(jìn)行深入探討,未雨綢繆,以期解決即將到來(lái)的人工智能所造成的的社會(huì)危害性問(wèn)題,而對(duì)人工智能是否擁有法律刑事主體地位的研究成為當(dāng)務(wù)之急。二、人工智能刑事主體地位理論之檢討解決人工智能危害社會(huì)行為的問(wèn)題,不能簡(jiǎn)單地將所有的責(zé)任都?xì)w于人工智能背后的自然人,或者建立人工智能保險(xiǎn)制度以彌補(bǔ)受害者的經(jīng)濟(jì)損失或給予補(bǔ)償。正確的做法應(yīng)當(dāng)是在刑事法律體系中,嘗試人工智能擁有刑事責(zé)任主體資格,從而將刑事責(zé)任在自然人與人工智能之間合理分配。近些年來(lái),Nature和Science雜志中涌現(xiàn)出了很多關(guān)于研究人工智能意識(shí)的成果。到目前為止,已經(jīng)提出了一些人工智能意識(shí)理論,,比如整合信息理論、全局工作空間理論等,科學(xué)家們根據(jù)已提出的理論開(kāi)發(fā)的意識(shí)機(jī)器人已經(jīng)能夠表現(xiàn)出一定的意識(shí)行為,并廣泛應(yīng)用于工業(yè)、教育、醫(yī)療、娛樂(lè)等不同領(lǐng)域。[1][2][3]人工智能意識(shí)研究目前已經(jīng)進(jìn)入初級(jí)階段,針對(duì)自我意識(shí)、感受意識(shí)這些意識(shí)研究中的核心問(wèn)題,已經(jīng)開(kāi)始有所涉及。目前機(jī)器人雖然不理解其所執(zhí)行任務(wù)的內(nèi)容,還不具有“自我”概念,但是“他們”根據(jù)預(yù)先給予的編程算法,可以表現(xiàn)出一些意識(shí)行為。[4]意識(shí)機(jī)器人研究的最終目的是使得人工智能體不受程序支配,具有內(nèi)省反思能力和情感體驗(yàn),從而能跟好的生存與學(xué)習(xí),更好的與人交互。由于意識(shí)具有超邏輯性,并不是算法所能把握的,因此在基于圖靈機(jī)的機(jī)器上采用傳統(tǒng)人工智能方法,如符號(hào)計(jì)算和人工神經(jīng)網(wǎng)絡(luò),是不能實(shí)現(xiàn)這一目的的。為此需要采用新的方法和技術(shù),如量子計(jì)算、腦機(jī)融合等。量子計(jì)算的計(jì)算能力和描述能力都比經(jīng)典計(jì)算更,并且量子計(jì)算的不確定性,更能突破預(yù)先編程的限制,因此更適合人們對(duì)描述復(fù)雜意識(shí)現(xiàn)象的需求。而充分結(jié)合了生物智能和機(jī)器智能的腦融合技術(shù),通過(guò)大腦對(duì)機(jī)器的直接控制,實(shí)現(xiàn)了大腦與機(jī)器的協(xié)同工作,對(duì)實(shí)現(xiàn)人工智能意識(shí)有著不可磨滅的推動(dòng)作用。對(duì)人工智能是對(duì)人工智能是否可以進(jìn)行刑法規(guī)制以及人工智能是否可以具有刑事主體地位,并不能一概而論,而是要根據(jù)人工智能的具體情況進(jìn)行具體分類(lèi)分析。對(duì)人工智能的分類(lèi),當(dāng)前存在通過(guò)智能、功能、和形體等的不同而進(jìn)行的各種分類(lèi),但對(duì)于“刑事主體地位”的探討而言,功能和形體的分類(lèi)沒(méi)有太大意義可言,而以其智能狀況進(jìn)行分類(lèi),將對(duì)其行為的后果產(chǎn)生重大不同的刑事意義。刑法學(xué)界當(dāng)前主要存在兩大觀點(diǎn):第一種觀點(diǎn)是將人工智能產(chǎn)品分為兩大類(lèi),在此簡(jiǎn)稱(chēng)“二分法”;第二種觀點(diǎn)是將人工智能產(chǎn)品分為三大類(lèi),簡(jiǎn)稱(chēng)“三分法”。(一)人工智能的分類(lèi)依據(jù)對(duì)人工智能的分類(lèi),當(dāng)前存在通過(guò)智能狀況、功能、和形體等的不同而進(jìn)行的各種分類(lèi),但對(duì)于“刑事主體地位”的探討而言,功能和形體的分類(lèi)沒(méi)有太大意義可言,而以其智能狀況進(jìn)行分類(lèi),將對(duì)其行為的后果產(chǎn)生重大不同的刑事意義。刑法學(xué)界當(dāng)前主要存在兩大觀點(diǎn):第一種觀點(diǎn)是依據(jù)是否能夠具備獨(dú)立的辨認(rèn)和控制能力,將人工智能產(chǎn)品分為兩大類(lèi),在此簡(jiǎn)稱(chēng)“二分法”;第二種觀點(diǎn)是依據(jù)分工智能的發(fā)展歷程,將人工智能產(chǎn)品分為三大類(lèi),簡(jiǎn)稱(chēng)“三分法”。1.二分法所謂二分法即根據(jù)人工智能能否具備獨(dú)立的辨認(rèn)和控制能力,將其分為人工智能和人工智能兩類(lèi)。人工智能,在設(shè)計(jì)和編譯的程序中具有識(shí)別和控制、判斷和獨(dú)立決策的能力,并能根據(jù)設(shè)計(jì)者或用戶定義的程序采取相應(yīng)的行動(dòng);它也可以超越程序設(shè)計(jì)和編譯,獨(dú)立決策,執(zhí)行相應(yīng)的行為,實(shí)現(xiàn)自己的意志,其已具備了獨(dú)立的辨認(rèn)和控制能力。正如最近正在播出的電視劇《你好安怡》,其中“芯機(jī)人”安怡已經(jīng)具備了人類(lèi)的感情、意識(shí),其不再受設(shè)計(jì)者以及用戶的程序束縛而可以擁有自己的思維。而人工智能只可以在設(shè)計(jì)和編制的程序范圍內(nèi)進(jìn)行獨(dú)立判斷并自主作出決策,并沒(méi)有獨(dú)立的辨認(rèn)和控制能力。比如當(dāng)前支付寶的人臉識(shí)別系統(tǒng),通過(guò)掃描其可以自主判斷是否是主人面孔,并決定是否支付相關(guān)費(fèi)用,但是這不是支付寶人臉識(shí)別產(chǎn)品的獨(dú)立意識(shí),只是對(duì)設(shè)計(jì)者的相關(guān)程序的履行。2.三分法有的學(xué)者對(duì)于以控制能力和辨認(rèn)能力作為對(duì)人工智能體分類(lèi)方法并不茍同,他們認(rèn)為應(yīng)該按照人工智能的發(fā)展歷程,將人工智能劃分為:智能體、智能體以及超智能體。智能體的智能化水準(zhǔn)與相應(yīng)的算法和基于算法的調(diào)度密切相關(guān),隨著智能體技術(shù)的演進(jìn),人們根據(jù)智能體的智能化水平對(duì)人工智能進(jìn)行了劃分,并對(duì)人工智能的發(fā)展將經(jīng)歷智能體、智能體和超智能體三個(gè)階段進(jìn)行判斷和預(yù)測(cè)。第一階段,智能體階段,其只擅長(zhǎng)單一技術(shù)或某一領(lǐng)域的操作,比如AlphaGo雖然打敗了世界圍棋冠軍,但除此以外,一竅不通。第二階段,智能體階段,這意味著人工智能在各個(gè)領(lǐng)域都有獨(dú)立解決問(wèn)題的能力,在獨(dú)立思考、快速學(xué)習(xí)等方面與人類(lèi)一樣有能力。第三階段,超智能體階段,在這個(gè)階段,人工智能已經(jīng)跨過(guò)了“奇點(diǎn)”,在認(rèn)知常識(shí)、社交技能等所有方面超越了人腦,特別是在數(shù)據(jù)計(jì)算和邏輯分析方面,更是為人類(lèi)所不能及。人工智能刑事主體地位理論之檢討如何確認(rèn)人工智能體的刑事責(zé)任,現(xiàn)有的刑事法律體系并沒(méi)有對(duì)此作出明確規(guī)定,因此學(xué)者之間就其是否為刑事責(zé)任主體的問(wèn)題存在爭(zhēng)議。1.人工智能刑事主體地位肯定論應(yīng)該強(qiáng)調(diào)三個(gè)主要原因:犯罪健康和人工智能。首先,人工智能具有獨(dú)立的識(shí)別和控制能力,這是刑事責(zé)任的必要條件。理解刑法含義的能力是理解行為的性質(zhì)、結(jié)果和功能的能力,包括理解事實(shí)和法律的能力。由于傳感器的不同,智能機(jī)器人具有識(shí)別客觀事實(shí)的能力,它具有快速的處理能力、反應(yīng)速度和精確的控制能力,能夠以大量的數(shù)據(jù)和高速的計(jì)算能力精確地控制行為。其次,智能機(jī)器人的行為存在侵犯合法權(quán)益的可能性。一方面,智能機(jī)器人具有侵犯合法利益的潛在性和理性特征,因此“有必要成為刑事責(zé)任主體”。另一方面,智能機(jī)器人是一個(gè)理性主體,具有控制認(rèn)知的能力,因此刑事責(zé)任主體是可能的。人工智能(AI)從大量數(shù)據(jù)中獲取世界自然人的相關(guān)經(jīng)驗(yàn)和規(guī)則,并有能力在采取行動(dòng)之前判斷他們的行為是否合法這些選擇對(duì)他非常有用。隨著智能機(jī)器人成為具有自我意識(shí)的個(gè)體,他們的行為是不可預(yù)測(cè)的,因此完全有可能侵犯他們的合法權(quán)益。第三,沒(méi)有自由意志的工具,智能機(jī)器人就無(wú)法產(chǎn)生自主意識(shí)。智能機(jī)器人不應(yīng)再被視為擁有工具的“工人”,因?yàn)樗鼈兙哂型ㄟ^(guò)深入學(xué)習(xí)獨(dú)立識(shí)別和控制的能力。與企業(yè)相比,智能機(jī)器人在自主性和自主性方面更接近自然人。法人是一個(gè)虛擬主體,其意志的充分表達(dá)可以歸因于自然人的集體決策、協(xié)商和調(diào)解。與自然人一樣,人工智能可以在不征求任何人意見(jiàn)的情況下表達(dá)自己的意愿。2.人工智能刑事主體地位否定論反對(duì)人工智能體獲得刑事責(zé)任主體資格的原因主要有以下三點(diǎn)。第一,人工智能不具有控制和辨認(rèn)能力。人工智能具有的辨認(rèn)和控制能力不能達(dá)到獨(dú)立承擔(dān)刑事責(zé)任的要求;不論人工智能體是否遵照預(yù)先設(shè)計(jì)的程序,均不能證明人工智能體擁有控制、辨認(rèn)能力,即欠缺法規(guī)范遵從能力的意志性,即使其在客觀上實(shí)施了危害社會(huì)的行為、造成了侵害法益結(jié)果,也不能將刑事責(zé)任歸于人工智能體。第二,對(duì)人工智能體施加刑罰沒(méi)有意義。智能機(jī)器人沒(méi)有生命、資產(chǎn)和自由,對(duì)其進(jìn)行這幾個(gè)方面的懲罰是沒(méi)有意義的;智能機(jī)器人缺乏對(duì)傳統(tǒng)刑罰的認(rèn)知和恐懼感,對(duì)人工智能施以刑罰不能引起“人工智能團(tuán)體社會(huì)”的共鳴,不能達(dá)到一般預(yù)防犯罪目的。一些學(xué)者認(rèn)為,隨科技發(fā)展而出現(xiàn)的人工智能機(jī)器人并不能作為刑事責(zé)任主體。時(shí)方曾指出:從道義責(zé)任論出發(fā),法律人格的根本條件是意志自由,但智能機(jī)器人不具有意志自由性,無(wú)法與其進(jìn)行倫理對(duì)話,也沒(méi)有辦法對(duì)其行為進(jìn)行有效的規(guī)制。蔡曙山認(rèn)為從認(rèn)知科學(xué)的角度來(lái)說(shuō),智能機(jī)器人不具有人類(lèi)智能。蔡曙山教授曾經(jīng)因2016年人機(jī)大戰(zhàn)事件(李世石與AlphaGo)為國(guó)家相關(guān)部門(mén)以及中央決策層提供咨詢報(bào)告,他在相關(guān)文章中指出從神經(jīng)、語(yǔ)言、思維、文化等四個(gè)方面對(duì)人工智能體進(jìn)行分析,他認(rèn)為人工智能永遠(yuǎn)不會(huì)具備人類(lèi)智能,因此得出在可預(yù)見(jiàn)的未來(lái)也不會(huì)出現(xiàn)超越或控制人類(lèi)的機(jī)器的結(jié)論。朱亞宗教授從哲學(xué)的維度進(jìn)行思考:為了實(shí)現(xiàn)與人類(lèi)類(lèi)似的意識(shí)活動(dòng),人工智能必須模仿并“擁有”意識(shí)的三個(gè)獨(dú)特屬性:意識(shí)的廣延性、同一性和非邏輯性。然而,在形而上學(xué)的角度看來(lái),這是不可能的。裴長(zhǎng)利從刑罰的具體內(nèi)容的角度,對(duì)智能機(jī)器人成為刑事責(zé)任主體進(jìn)行了否定。葉良芳曾提出,雖然智能機(jī)器人在某種程度上能夠具有與人類(lèi)相似的辨認(rèn)控制能力以及改變事物客觀狀態(tài)的能力,但僅依據(jù)于此認(rèn)定人工智能作為犯罪主體是不夠的。有的學(xué)者并不認(rèn)同否定說(shuō)的觀點(diǎn),他們認(rèn)為,進(jìn)入到人工智能時(shí)代,人工智能體可以具有刑事責(zé)任主體地位。林命彬在其博士學(xué)位論文《智能機(jī)器人哲學(xué)思考》第84頁(yè)中提到:智能機(jī)器人能夠在意識(shí)、實(shí)踐和自由等方面有所突破,成為“法人”。劉憲權(quán)教授曾發(fā)表文章指出,通過(guò)深度學(xué)習(xí),人工智能體能夠產(chǎn)生辨認(rèn)和控制能力,可以將其定位為“人工人”。為了繼續(xù)證實(shí)這個(gè)觀點(diǎn),劉教授又發(fā)表文章指出,人工智能體比單位更具有與人類(lèi)相近的自主意識(shí)和自主意志,將人工智能體作為刑事責(zé)任主體更符合罪責(zé)自負(fù)原則,也更有利于維護(hù)刑事責(zé)任主體基本內(nèi)涵的統(tǒng)一性。其后,其繼續(xù)發(fā)表文章提出,人工智能體也具有感知刑罰痛苦的能力,依據(jù)刑事立法規(guī)律,可以將其作為刑事責(zé)任體進(jìn)行規(guī)制。通過(guò)對(duì)當(dāng)前學(xué)者關(guān)于人工智能刑事主體地位肯定以及否定觀點(diǎn)研究現(xiàn)狀的分析,以及對(duì)人工智能意識(shí)發(fā)展現(xiàn)狀的了解,筆者認(rèn)為,人工智能時(shí)代的人工智能完全有可能具有刑事主體地位,主要思路可以從《刑法》關(guān)于刑事主體需具備的條件入手,即一需要實(shí)施了具有嚴(yán)重社會(huì)危害性之行為;二需要有刑事責(zé)任能力;三需要依照刑法規(guī)定應(yīng)承擔(dān)刑事責(zé)任。具體內(nèi)容將在下述正文中詳細(xì)闡述,在此將不再贅述。三、人工智能刑事主體對(duì)傳統(tǒng)刑法沖擊存在的問(wèn)題因?yàn)榧夹g(shù)以及社會(huì)發(fā)展的限制,傳統(tǒng)的刑法理論圍繞“自然人-法人”二元主體格局來(lái)展開(kāi)的,并且,由于單位實(shí)際上也是由人來(lái)組成的,從本質(zhì)上來(lái)說(shuō),傳統(tǒng)的犯罪論體系是“人”為中心來(lái)構(gòu)建的。因此,當(dāng)賦予人工智能刑事主體地位以后,必然會(huì)使得現(xiàn)有的刑法理論造成沖擊。傳統(tǒng)刑法中犯罪論體系的沖擊在傳統(tǒng)刑法中,三級(jí)犯罪理論體系的第一層是構(gòu)成要件的相容性。第二類(lèi)是違法性的構(gòu)成要件,即必須是違法行為,不存在正當(dāng)防衛(wèi)、緊急避險(xiǎn)等違法理由。第三類(lèi)是責(zé)任的構(gòu)成要件,也可以稱(chēng)為責(zé)任的可能性,即可以滿足不法行為的構(gòu)成要件,但不能為犯罪人承擔(dān)責(zé)任。3、法律理解上的誤解和不可預(yù)見(jiàn)的可能阻礙相關(guān)責(zé)任的履行。當(dāng)人工智能成為刑事責(zé)任主體并規(guī)范相關(guān)行為時(shí),它必須經(jīng)歷三個(gè)層次的犯罪理論體系。然而,傳統(tǒng)三級(jí)犯罪理論的核心是“人”(廣義上包括自然人和單位),這是人工智能在三級(jí)犯罪中的第一道“障礙”。在刑法中,人工智能行為是否可以被視為“行為”,是構(gòu)成人工智能行為的要素匹配水平的第二個(gè)“障礙”。由于人工智能具有完全的識(shí)別和控制能力以及自由意志,一般來(lái)說(shuō),它不會(huì)導(dǎo)致合法性障礙和責(zé)任性障礙,但在復(fù)雜的現(xiàn)實(shí)條件下,由于特殊因素阻礙了懲罰。對(duì)傳統(tǒng)刑法中刑罰論體系的沖擊傳統(tǒng)刑罰體系犯罪主體包含自然人和單位,人工智能既不歸屬于自然人也不能被單位所包含。具體理由如下:首先,人工智能不屬于自然人。人工智能沒(méi)有自然人擁有的生命體征,也沒(méi)有生命權(quán)和自由權(quán)。首先,人類(lèi)的自然生命權(quán)是基于有機(jī)體的存在,而人工智能不能因?yàn)橛袡C(jī)體的存在而成為生命權(quán)。人體的自然損傷將導(dǎo)致健康權(quán)和生命權(quán)的剝奪。人工智能可以依靠人體的各個(gè)部位進(jìn)行修復(fù)、更換或恢復(fù)。自然生命是不可逆轉(zhuǎn)的。從出生開(kāi)始,它就一步步走向衰老和死亡,但人工智能的“生命”可以重新開(kāi)始和逆轉(zhuǎn)。如果賦予生命權(quán),將大大增加生命的內(nèi)涵和本質(zhì),違背人類(lèi)的基本道德。第二,大赦國(guó)際不能享有自由權(quán),因?yàn)樗鼪](méi)有生命。從刑法的角度來(lái)看,自由權(quán)是人格權(quán)的重要組成部分。所有人格權(quán)都是以生命的存在為基礎(chǔ)的,生命的喪失是人格權(quán)的終結(jié)。如上所述,大赦國(guó)際沒(méi)有生命,因此不能享有自由權(quán)。從價(jià)值論的角度來(lái)看,人工智能認(rèn)為服務(wù)權(quán)是其核心價(jià)值。因此,賦予人工智能自由與其核心價(jià)值相沖突,不利于其核心價(jià)值的充分發(fā)揮。為人類(lèi)服務(wù)對(duì)傳統(tǒng)刑法中刑事程序的沖擊是否作為獨(dú)立主體進(jìn)入刑事訴訟程序,是檢驗(yàn)特定主體是否具有刑事主體獨(dú)立性的重要途徑之一。如果刑事主體不能獨(dú)立參與訴訟,就意味著刑事主體受到起訴和審判。傳統(tǒng)刑事訴訟法與傳統(tǒng)刑事實(shí)體法相兼容,因此訴訟主體也是“自然人單位”的雙重主體,但單位犯罪后,法定代表人、直接責(zé)任人或其他主要責(zé)任人代表其參加訴訟,但單位本身是虛構(gòu)的,所以我們不能在法庭上看到所謂“單位”的起草主體,而是看到所有的自然人;他是自然人,在法庭上代表一個(gè)單位應(yīng)訴。換句話說(shuō),刑事訴訟的當(dāng)事人只是自然人的主體。然而,隨著人工智能時(shí)代的到來(lái),當(dāng)人工智能建立在對(duì)危險(xiǎn)社會(huì)行為的獨(dú)立理解基礎(chǔ)上時(shí),傳統(tǒng)的刑事訴訟程序?qū)o(wú)能為力,因?yàn)槿斯ぶ悄懿皇窃V訟的一方當(dāng)事人,傳統(tǒng)刑事專(zhuān)業(yè)。四、人工智能刑事主體對(duì)傳統(tǒng)刑法沖擊的優(yōu)化措施(一)人工智能納入犯罪論體系范圍一直以來(lái),世界范圍內(nèi)許多法學(xué)家都曾表達(dá)過(guò)這樣一種觀點(diǎn),他們認(rèn)為單位沒(méi)有成為犯罪主體的可能性,因?yàn)槠錄](méi)有犯罪能力。日本法學(xué)家木村龜二曾表示,法人不可以成為犯罪主體,其依據(jù)主要有以下幾點(diǎn):“其一,法人不具有自然人的肉體和意識(shí),不具有行為能力;其二,法人的行為是通過(guò)自然人實(shí)施的,因此處罰自然人即可;其三,對(duì)法人進(jìn)行處罰,會(huì)使得法人組織里其他無(wú)關(guān)人員受到牽連,不符合罪責(zé)自負(fù)原則。在此需要明確的是,人工智能與單位之間存在差異:?jiǎn)挝蛔鳛樽匀蝗说募象w,其刑事責(zé)任能力來(lái)源于單位內(nèi)部自然人的辨認(rèn)和控制能力,可以說(shuō),單位的刑事責(zé)任能力是一種“間接”的刑事責(zé)任能力;但人工智能雖然與單位同樣沒(méi)有生命體征,其卻具有“直接”的刑事責(zé)任能力,并依靠自由意識(shí)自主實(shí)施行為。也就是說(shuō),人工智能與單位相比,具有更加獨(dú)立并且直接由本身控制的辨認(rèn)和控制能力,不需要依賴(lài)其他人,其與自然人相比,除了沒(méi)有生命體征以外,幾乎沒(méi)有其他本質(zhì)區(qū)別,因此,人工智能比單位更加接近于自然人,也就更有資格被納入刑事責(zé)任主體范圍。既然單位已經(jīng)被納入了刑事主體范圍,那么,將強(qiáng)人工智能以立法的方式納入犯罪主體范圍當(dāng)然也就無(wú)可厚非。(二)修改人工智能對(duì)傳統(tǒng)刑法論體系目前,我國(guó)的刑罰體系正在適應(yīng)一定時(shí)期的社會(huì)經(jīng)濟(jì)發(fā)展,并隨著歷史的進(jìn)步和相應(yīng)產(chǎn)品的發(fā)展而發(fā)展。然而,隨著人工智能時(shí)代的到來(lái),新時(shí)代的風(fēng)險(xiǎn)應(yīng)對(duì)與傳統(tǒng)的刑罰體系相比,這似乎是一種負(fù)擔(dān)。因此,應(yīng)根據(jù)人工智能的特點(diǎn),重構(gòu)我國(guó)的刑罰體系,建立適合人工智能時(shí)代的刑罰體系。數(shù)據(jù)刪除是指刪除人工智能實(shí)施刑法禁止行為的數(shù)據(jù)和信息。這相當(dāng)于人工智能清除了“犯罪記憶”,回到犯罪前的“合法”狀態(tài)。然而,犯罪記憶的消除將不再作為人工智能成長(zhǎng)體驗(yàn)的一部分出現(xiàn),這將有助于指導(dǎo)人工智能的深入學(xué)習(xí)、研究、排除或隔離“負(fù)面陳述”可能導(dǎo)致犯罪活動(dòng),從而直接降低個(gè)人風(fēng)險(xiǎn)。修改后的程序指的是針對(duì)多重犯罪的人工智能。如果被刪除的數(shù)據(jù)不能阻止“負(fù)面數(shù)據(jù)”潛在的犯罪,即人工智能不能積極引導(dǎo),那么他們將不得不修改自己的基本程序、獲取外部數(shù)據(jù)的能力以及在特定范圍內(nèi)進(jìn)行深入學(xué)習(xí)的程序,基本上剝奪了他們實(shí)施其他犯罪的可能性。這意味著agent的學(xué)習(xí)深度和功能將不會(huì)是全面的或無(wú)限的。它將無(wú)法獲得人類(lèi)設(shè)計(jì)和編程范圍之外的數(shù)據(jù),因此它將無(wú)法產(chǎn)生人類(lèi)意志之外的獨(dú)立意志。從當(dāng)前對(duì)強(qiáng)人工智能的設(shè)想來(lái)看,強(qiáng)人工智能還不具有于自然人類(lèi)似的財(cái)產(chǎn)權(quán)和政治權(quán)利。如果未來(lái)有一天,法律賦予人工智能相應(yīng)的財(cái)產(chǎn)權(quán),那么當(dāng)其在獨(dú)立意識(shí)下實(shí)施犯罪行為是可以對(duì)其單獨(dú)或者附加適用罰金或者沒(méi)收財(cái)產(chǎn)等財(cái)產(chǎn)刑;如果某一天法律對(duì)人工智能賦予政治權(quán)利或者其他資格權(quán)利,當(dāng)強(qiáng)人工智能實(shí)施了刑法所規(guī)制的行為時(shí)可以考慮對(duì)其單獨(dú)或者附加適用剝奪政治權(quán)利或者剝奪相關(guān)資格的權(quán)利刑。(三)完善人工智能刑法主體訴訟程序人工智能在刑事實(shí)體法中獲得主體地位,能夠成功地參與訴訟程序中的辯護(hù),才能真正成為刑事主體地位。如前所述,人工智能可以成為實(shí)體刑法的主體,因此在實(shí)施或?qū)嵤﹪?yán)重的社會(huì)行為時(shí),它還可以在訴訟程序中獲得自然人的權(quán)利,當(dāng)事人應(yīng)當(dāng)承擔(dān)訴訟義務(wù)。首先,成為當(dāng)事人必須滿足兩個(gè)條件:一是客觀條件:其合法權(quán)益將直接受到案件結(jié)果的影響。第二,程序性要件:當(dāng)事人可以享有廣泛的程序性權(quán)利。與其他訴訟參與人相比,當(dāng)事人對(duì)訴訟過(guò)程和最終結(jié)果的影響更大。一般來(lái)說(shuō),原告和被告都在啟動(dòng)訴訟、推進(jìn)訴訟和終止訴訟活動(dòng)中發(fā)揮著重要作用。就大赦國(guó)際而言,首先,大赦國(guó)際在自由感的基礎(chǔ)上進(jìn)行了嚴(yán)重的社會(huì)行為。第二,人工智能,例如行為人或受害者,可以出庭、出庭、為自己辯護(hù),或者邀請(qǐng)其他自然人或人工智能代理人(具有律師的職能)為他們辯護(hù)。他們的行為對(duì)訴訟過(guò)程和結(jié)果的影響比其他訴訟參與人更大。他們是刑事實(shí)體法上的刑事主體,享有廣泛的訴訟權(quán)利。其次,刑事程序法最重要的功能之一就是工具價(jià)值,刑事實(shí)體法上承認(rèn)人工智能的刑事主體地位,刑事程序法也應(yīng)具有相對(duì)應(yīng)的配套程序,使刑事程序上訴訟當(dāng)事人的主體范圍應(yīng)與刑事實(shí)體法保持一致,以達(dá)到保證刑事實(shí)體法順利實(shí)施的目的。最后,《刑事訴訟法》第106條對(duì)刑事訴訟當(dāng)事人范圍給出了具體界定,智能機(jī)器人具有刑事責(zé)任能力,能夠在被設(shè)定的程序范圍外依據(jù)自己的意志實(shí)施一定的行為,因此人工智能有足夠的的可能性可以成為刑事訴訟中的被害人、自訴人、犯罪嫌疑人、被告人、附帶民事訴訟的原告人和被告人。綜上所述,人工智能可以成為刑事訴訟當(dāng)事人的主體,即人工智能和自然人都能夠作為訴訟當(dāng)事人。結(jié)語(yǔ)人工智能時(shí)代是一個(gè)必將到來(lái)且充滿無(wú)限可能性的時(shí)代。隨著人工智能在我們的生活中扮演的角色越來(lái)越重要,承擔(dān)的社會(huì)責(zé)任越來(lái)越重,與之同時(shí),其行為制造是社會(huì)風(fēng)險(xiǎn)也越來(lái)越大,甚至制造刑事風(fēng)險(xiǎn)已經(jīng)成為必然。面對(duì)他們對(duì)傳統(tǒng)刑法理論的挑戰(zhàn),一味的逃避或

溫馨提示

  • 1. 本站所有資源如無(wú)特殊說(shuō)明,都需要本地電腦安裝OFFICE2007和PDF閱讀器。圖紙軟件為CAD,CAXA,PROE,UG,SolidWorks等.壓縮文件請(qǐng)下載最新的WinRAR軟件解壓。
  • 2. 本站的文檔不包含任何第三方提供的附件圖紙等,如果需要附件,請(qǐng)聯(lián)系上傳者。文件的所有權(quán)益歸上傳用戶所有。
  • 3. 本站RAR壓縮包中若帶圖紙,網(wǎng)頁(yè)內(nèi)容里面會(huì)有圖紙預(yù)覽,若沒(méi)有圖紙預(yù)覽就沒(méi)有圖紙。
  • 4. 未經(jīng)權(quán)益所有人同意不得將文件中的內(nèi)容挪作商業(yè)或盈利用途。
  • 5. 人人文庫(kù)網(wǎng)僅提供信息存儲(chǔ)空間,僅對(duì)用戶上傳內(nèi)容的表現(xiàn)方式做保護(hù)處理,對(duì)用戶上傳分享的文檔內(nèi)容本身不做任何修改或編輯,并不能對(duì)任何下載內(nèi)容負(fù)責(zé)。
  • 6. 下載文件中如有侵權(quán)或不適當(dāng)內(nèi)容,請(qǐng)與我們聯(lián)系,我們立即糾正。
  • 7. 本站不保證下載資源的準(zhǔn)確性、安全性和完整性, 同時(shí)也不承擔(dān)用戶因使用這些下載資源對(duì)自己和他人造成任何形式的傷害或損失。

最新文檔

評(píng)論

0/150

提交評(píng)論