当前位置: > d88尊龙首页官网 >
d88尊龙首页官网“人工智能+”的治理是理论界和实务界的新课题,刑事司法人工智能的应用正在面临不被信任的现实困境。目前关于刑事司法人工智能的质疑主要集中在人工智能运作的不透明性和算法的歧视与偏见等方面,不过,这些问题并不是刑事司法人工智能独有的问题,法官在审理案件的过程也会受到“认知偏差”和“噪声”的影响,但是人们对法官的包容度明显高于人工智能,这可能与人们在司法程序中感受到的公平正义有关。影响主观程序正义的因素包括信任感、控制感与尊重感,为此,提升公众对刑事司法人工智能的信任应该建立充分发挥法官主导优势和人工智能辅助价值的人机合作机制,保障当事人在司法过程中的知情权和陈述权等诉讼权利。
随着人类社会逐步迈入人工智能时代,人工智能出现在社会生活的方方面面,“数据”“算法”成为各界追逐的焦点,技术的创新不仅带来了社会生活的变迁和生产力的变革,也为司法领域带来了革命性的改变,世界各个国家和地区的司法系统正在发生深刻的“智慧”转向。在域外,COMPAS系统作为犯罪人风险行为评估系统应用于司法审判到执行的各个环节,其对行为人的风险评分受到社会的高度关注;国内层面理论耗气量,随着建设“智慧法院”被纳入国家信息化发展战略,我国司法实务界对人工智能应用于司法裁判一直持乐观且积极的态度,最具代表性的便是上海“206系统”和北京市高级人民法院的“睿法官”。
这些系统以大数据、人工智能等前沿技术为依托,尽管在信息检索、类案对比、文书制作方面都有显著的优势,但关于刑事司法人工智能的应用一直存在广泛担忧。2013年美国威斯康星州诉卢米斯案(以下简称“卢米斯案”)引发公众和学界关于刑事司法人工智能算法歧视和不透明性的焦虑,2023年初,随着ChatGPT的爆火,哥伦比亚的一名法官使用ChatGPT作出法庭裁决,这是第一次法官在人工智能文本生成器的帮助下作出法律决定。该行为遭到了人工智能伦理学家的批评,他们指出,这些刑事司法人工智能系统会导致性别和种族歧视的加剧,放大社会中的不平等现象。由此可见,刑事司法人工智能的应用面临信任困境。
如何理解刑事司法人工智能领域的信任危机?目前学界关于该问题的讨论更多集中于人工智能技术本身,例如人工智能学习数据的不完备、固有的算法歧视和不透明性等问题,这些关于实质正义的研究有其意义,但是司法偏见并非刑事司法人工智能独有的问题,现实中,法官可以通过法律解释技术来掩盖司法偏见,进而使得裁判过程变得不再公开透明。但相较于刑事司法人工智能的应用动辄成为全球热点,人们对法官裁判中“错误”的容忍度似乎更高,这或许与人们在不同审判程序中感受到的程序正义有关。
基于此,本文试图从主观程序正义的角度探讨为何人们不信任刑事司法人工智能,阐释主观程序正义的具体内涵,探寻刑事司法人工智能信任困境的具体方面,进而发现纾解刑事司法人工智能信任困境的有效途径。
目前,刑事司法人工智能的广泛应用与公众对其的不信任之间形成了愈发紧张的关系,在此,有必要梳理刑事司法人工智能所面临的信任困境的不同维度,以及审视刑事司法人工智能决策与人类法官决策之间的关系。
随着人工智能技术的日益成熟,各个国家和地区的法院都试图将人工智能嵌入司法实践中,在案件信息管理、辅助侦查等方面都有人工智能的身影。同时,受“选择性失能”运动的影响,美国司法部门大量引入风险评估工具,目前已经有一半以上的州利用COMPAS、PSA和LSI-R等软件对犯罪行为人再犯风险进行评估和预测,用以帮助法官确认行为人是否需要审前羁押或者保释等。
近年来,中国政府积极投入资源,加快推进刑事司法人工智能的应用,2016年7月,《国家信息化发展战略纲要》和《“十三五”国家信息化规划》提出了“智慧法院”,以实现四级法院的智能化办理,实现全业务网上办理、全流程依法公开、全方位智能服务,人工智能技术在案件卷宗信息自动回填、类案推送、量刑辅助、庭审语音自动转录等方面都发挥重要作用。
虽然域内外不同国家和地区对于刑事司法人工智能技术的接受程度不尽相同,但不可否认的是,人工智能在司法领域的应用日益广泛和深入,随之而来的是对刑事司法人工智能的质疑和批判,其中最典型的就是2013年发生的卢米斯案。
在卢米斯案中,威斯康星州惩教署为卢米斯准备了一份包括“惩教罪犯管理替代制裁档案”(COMPAS)风险评估在内的判刑前调查报告,经COMPAS评估,卢米斯被显示为“暴力风险高,再犯风险高,预审风险高”,法官因此判处卢米斯六年有期徒刑。卢米斯随后向法院提交了定罪后的缓解动议,认为COMPAS的评估侵犯了其“个性化判决”的权利和根据准确信息获取判决的权利。虽然法院最终驳回了卢米斯的请求,并表示COMPAS评估并不是作出裁决的唯一依据,即便使用了COMPAS系统依然不影响法院的个性化裁判,但卢米斯案仍引发了公众和媒体对刑事司法人工智能的不信任,主要包括:
(1)歧视性问题。COMPAS算法歧视的原因可能来自固有的人类偏见以及不完备的训练数据,因此有学者指出这类智能测评工具依赖于有缺陷的数据库,其造成的后果可能会掩盖社会中的公然歧视。
(2)不透明性问题。人工智能的不透明性是社会各界普遍关注的焦点之一,卢米斯上诉的理由之一也是COMPAS的保密特性。其一,人工智能的发展存在“算法黑箱”问题,COMPAS也不例外,其得出结论的过程人类无法窥见;其二,COMPAS的研发公司Nortpointe将该系统视为商业秘密进行保护,仅将评估结果呈报法庭,缺乏具体的评估过程记录。
(3)操纵性风险,在本案中,法官依据COMPAS的评估结果判处卢米斯六年有期徒刑,一时间,“判决是否过重”“法官判决是否被COMPAS裹挟”的言论沸沸扬扬,尽管法院强调COMPAS的评估结果仅作为参考,但参照度的模糊性备受质疑,并不能排除人与技术特定依赖关系的形成,进而造成人被人工智能技术操纵的风险。
在我国,人工智能并未在实质性判决领域进行应用,可以看作是一种“弱形式化”应用,也并没有出现像卢卡斯案一样具有广泛影响力的“公案”。但是关于刑事司法人工智能的不信任也始终存在,“人脸识别第一案”也为人工智能的应用敲响了警钟。社会公众对刑事司法人工智能的不信任不仅源于人工智能技术本身的缺陷,也体现为公众的主观愿望和对正义的期待,这直接影响他们对司法机关的信任和司法决定是否能被顺利执行。
人工智能在司法决策中的演进路径与传统司法裁判理论息息相关,即法学和现实主义法学。在最早思考裁判智能化的过程中,传统路径都指向高度:司法裁判存在一个完美的推理体系,法官可以根据法律规范、案件事实以及推理逻辑得出唯一正确的判决,在此思想指导下的人工智能就像一个法律的“自动售货机”,输入特定的案情即可得出特定的判决结果,但是这种闭合的法律推理观无法模拟人类复杂的推理过程,在经历了两次“人工智能寒冬”后,现在的人工智能应用都是在现实主义法学的指导下,基于海量数据,运用“知识图谱+深度学习”学习和理解人类的行为。现实主义法学重视经济、社会、道德和法官的个人因素等对判决的影响,以此进路发展的人工智能从模拟外在的法律推理过程转向法官的内在思维结构,其核心是建立一个对判决进行预测的算法模型。
由此可以看出,无论是法学还是实用主义法学,刑事司法人工智能技术都是模拟人类法官决策的过程,因此“法官如何决策”这一问题便显得至关重要。近年来,法律现实主义学者热衷于探究法外因素对法官判决的影响,在以色列和美国学者出具的调查报告中,法官在上班伊始、午餐或茶歇后,其通过假释申请的可能性显著提高,最高可达70%,随后逐步下降,在下次休息前,通过率接近0%。这一结果与人们理想中的“司法正义”大相径庭。自20世纪认知心理学界提出的“有限理性”和前景理论后,传统的经济理性人假说不断受到挑战,理性推理的观点似乎无法解释和描述真实的司法裁判过程,法官在审理案件时也会存在“认知偏差”,且这些偏差往往是自动的、隐蔽的,也就是所谓的“隐形社会认知”。
同时,心理学家卡尼曼指出法官在作出判决时同样会受到“噪声”的影响。在1981年的一项研究中,被测试的208名美国联邦法官对16起完全相同的虚拟案件进行判决,仅仅有3起案件一致同意判处监禁,即使如此,在这3起案件中他们建议的刑期也有较大差异。有充分的证据表明,一些微小的、看似随机出现的无关信息可能会导致判决结果出现较大差异,这些信息可能是被告的生日、当天的气温,甚至是本地足球队比赛的情况。
必须承认的是,刑事司法人工智能并不完美,人类法官在今后一段时间内的优势仍然是毋庸置疑的,但是从上述论述可以看出,人类法官远没有想象中公正无私,其判决受到偏差和噪声的双重影响;同样,人工智能也没有想象中的那般不可信任,英国谢菲尔德和美国宾夕法尼亚大学研究人员开发的人工智能,对欧洲人权法院的判决预测准确率可达79%。但是,人们更倾向于信任人类,或者在人工智能犯错后选择不再信任人工智能,除了人工智能本身存在问题,这一现象可能也受到人们主观因素的影响,即所谓的“感知正义”。
人类法官的决策绝不可能完美,甚至在很多时候,司法人工智能会显得更加“理性”且“可靠”,但是人们却更容易从诉诸情感、循循善诱的法官处感受到更多的公平正义。对正义的感知不仅来自于司法裁判的结果,决策程序同样会影响人们的认知。因此,探寻感知正义背后的主观程序正义便显得尤为重要了。
关于“可感知的正义”的研究肇始于20世纪70年代,1975年美国学者蒂博和沃尔克在其著作《程序正义:一个心理学的分析》中,首次用程序正义这一术语来指涉程序变量的社会心理学结果,尤其用来强调程序正义对于公平评价的影响。他们在书中提到:“用程序就可以提升整体满意度而不用改变分配带来的实际结果。”这一论点也为后续社会心理学家和法学家研究主观程序正义奠定基础。
主观程序正义直接关系到人们对于法官、司法结果,甚至整个司法体系的评价。越来越多的研究表明,程序正义能够增强人们对于司法体系的整体满意度,即使是判决结果对其不利的当事人(即败诉方),如果他认为程序是正义的,则更大概率会支持法院的决定。因此,增强法律信任的其中一条路径在于提升人们对于司法程序的满意度。结合理论和实践,影响主观程序正义的因素主要包括:
主观程序正义中的信任感来自当事人对法律程序的一种正向反馈,是人们相信法律当局的目的是维护正义、相信裁判者能够保持中立、相信裁判结果是积极的心理态度。20世纪70年代美国学者富尔杰提出“挫败效应”理论,该理论认为当人们不信任程序正义时,在同样不公平结果的情况下,表面上公平的程序比表面上不公平的程序更加不公平。其关键就在于当人们陷入“整体不公平”的氛围中,相信程序本身是不值得信任的,那么表面越正义的程序在此时就会显得越虚伪甚至堕落。“信任是司法的本质,人们对裁判者的认同是社会公平正义的基础”,主观程序正义是司法信任的来源,它受到对裁判者主体身份的认可、裁判结果、社会整体评价等多方面因素的影响。因此,在司法实践中提高主观程序正义、警惕社会中的“挫败效应”,就是建立当事人对司法程序信任的过程。
控制感是指当事人希望能够对司法过程产生影响力,并且怀有能够控制司法过程的信念。1974年,蒂博和沃克尔对来自不同国家的受试者进行实验,得出的结论是相较于纠问式程序,人们更加青睐于对抗式程序;林德等人重复蒂博和沃尔克的实验后发现,即使被试者得到一份对自己不利的判决,他们也更愿意相信对抗制的程序是正义的。这背后的一种可能性是在对抗式的审判程序中,法官只处于消极裁判者的地位,诉讼过程由当事人发起、推动,法庭之上允许当事人证据展示和观点陈述的机会也更多,当事人可以从中感受到对程序过程的控制,进而认为以此产生的判决更加公平。因此,当事人充分参与、充分表达,让他们自己感受到可以影响并控制审判进程,能够提高当事人的主观程序正义。
值得一提的是,控制感并不等同于控制,控制感是一种主观感受,人们获得控制感需要他们认为自己获得了提出意见的机会且感受到自己的意见可能会对结果产生影响。在司法程序中,提升当事人的控制感一方面需要提升当事人在各个环节的参与度,更重要的是司法过程的透明度、保障当事人的知情权,案件处理信息的及时公开可以让当事人实时掌握诉讼进展情况,并消解信息不对称可能引起的不必要的质疑。
尊重感是一种个体在司法程序中的主观感受,它来源于人们拥有表达观点和争论的机会并且感受到裁判者充分考虑了自己提出的观点和信息。泰勒等人的研究检验了在政治环境中的发言存在两种观点:工具性观点和价值表达的观点。其中价值表达的观点是指不考虑发言对结果的影响,发言本身就存在价值。这种价值表达论在后续的实验中得到了验证,即将司法过程视为不公平的当事人大多抱怨他们没有机会叙说他们的故事。同样,裁判者能否认真考虑当事人的主张也是影响尊重感的重要因素,因此司法程序中应该保障主体间充分的互动与交流。
人们对决策的信任与“自愿服从”来源于对决策主体身份的认可,即人们认为决策主体具有“权威合法性”。权威合法性是政治学和社会学的重要概念,同时也是心理学家讨论的重要问题。对权威合法性的研究始于马克思·韦伯的著作,韦伯认为,社会规范和价值影响个体的内在行为动机,并通过奖惩手段指导和控制他们的行为,当社会规范和价值内化成为个体内在行为机制的一部分时,自我控制也就取代了他人控制,此时,人们可以进行自我约束,承担起与之相关的义务,这种义务是权威合法性的核心要素,它使人们自愿服从具有权威合法性的权威和规则。简而言之,权威合法性的核心是指人们认为权威所作的决定和制定的规则是合理的,人们有遵循的义务。放在司法决策中,它代表人们往往不是因为裁判结果的公正而认可裁判者的合法性,而是事先认同裁判者具有合法性,才认为其作出的司法裁判是公正合理的。
法官权威合法性的来源,一方面来自国家职能部门的权力分配,法官被赋予“审判权”,在设计之初便具有“中立”“独立性”等属性,发挥着定纷止争、守护司法权威的作用。另一方面,也来自社会的宣传和公众赋予法官的理想化的映射,“努力让人民群众在每一个案件中感受到公平正义”“司法人员履职行为的权威就是法治权威最生动鲜活的提现”,这一个个耳熟能详的口号使得人们对法官的公正性有了极高的期待;同样,人们在不了解或缺乏直观感受时,也会容易对法官产生信任感,但这种信息的不对称常常会在经历过司法程序后被打破。
相反,刑事司法人工智能并不具有这样的权威合法性,有研究表明,相较于人类决策,算法决策会被认为更加不公平、不可信,并引发更多负面情绪,特别是处理涉及主观判断或情感能力的任务时。权威合法性源于群体成员与权威建立的积极关系和交互时产生的高群体认同,这种高群体认同帮助成员内化群体价值和规范,从而自愿服从权威。而高群体认同的来源是成员与权威之间的道德匹配程度,即两者是否共享一致的道德价值观。这正是人工智能与人类法官的不同所在,人工智能是冷冰冰的机器,尽管其学习和运作的背后有人的身影,但人们很难与人工智能形成群体认同感,进而不接受人工智能的合法性。
除了信任感会影响人们对于程序正义的评价,当事人在参与司法程序、发表意见、与法官的互动中获得的控制感和尊重感同样会影响其对程序正义的看法,刑事司法人工智能在这些程序维度具有天然的劣势。其一,人工智能的决策在算法黑箱中进行,当事人只在事后收到人工智能审判的结果,而对其中的过程一无所知;其二,法律程序在很大程度上依靠的是交流和沟通,但是刑事司法人工智能应用使得交流受阻,当事人在司法过程中的尊重感受挫。
当前主流人工智能的深度学习过程是输入大量用于训练和测试的数据,最后输出结果,这种算法运作是由人类编写的,但是机器深度学习的过程却是人类无法从外部感知的,这就是所谓的“算法黑箱”理论。“算法黑箱”带来的不透明性一直是人工智能讨论的热点,客观上,它可能会引发人工智能的偏见和算法歧视;从主观上看,审判过程的不透明性会导致当事人无法感受到其对司法过程的影响和控制,从而质疑程序的公正性。以卢米斯案为例,一方面,COMPAS风险评估系统包含“数据输入”“处理与计算”“结果输出”三步,但是最关键的“处理与计算”却是在黑箱中进行,即人们无法得知COMPAS如何解释这些数据并根据解释输出预测结果;另一方面,COMPAS的统计模型和源代码属于商业秘密,受到相关法律的保护,法院指出如果算法开发者向法院提交了书面警示材料,则可以缓解不透明性带来的紧张关系,但这显然并不能消除质疑。尽管COMPAS的数据处理过程未必一定是偏颇的或是带有种族偏见的,但这种简单的“输入数据-输出结果”过程仍然使人们产生了无力控制感,进而对程序公正生出巨大的负面情绪。
同样,也正是这种简单的数据处理过程,卢米斯无法与COMPAS或者COMPAS背后的开发者对话,也阻碍了卢米斯与法官之间的沟通。在本案中,卢米斯认为COMPAS将性别作为风险评估因素属于违宪,但法院对此予以驳回,在司法自动化模式下,本应由当事人、法院多方主体参与的交互辩论式法庭模式,变成了输入关键词得出单一结果的算法运作过程,削弱了司法进行动态社会整合的内在张力,也削减了当事人在司法过程中的参与感与尊严感。同时,缺乏交往性的人工智能决策无法达到哲学层面的“他者”向“自我”的身份更新与身份认同,因而人们无法从内心深处信仰司法和自愿服从。
在刑事司法人工智能推广的大背景下,必须重构人们对于算法决策的信任。在追求司法正义的道路上,既要考虑理性因素,同时也要照顾到非理性因素,充分发挥刑事司法人工智能算法决策的优势,同时保障当事人在司法程序中应有的权利。
目前,刑事司法人工智能已初步实践于实质审判领域,特别是在决定量刑和假释中的应用,是人工智能在司法领域由理论迈向实践的一大进步,但绝大多数国家还没有大范围使用人工智能裁判案件,基本上只处于产品的设计和实验阶段,即使是风险评估系统应用最广泛的美国,在最关键的定罪以及决定诉讼请求是否支持等事项上也并没有交给人工智能。人工智能目前还不可能取代法官,一方面是基于人工智能在技术发展上的不完备,另一方面则是人类法官和人工智能的信任度存在巨大差异。因此,建立人机合作机制,最重要的是充分发挥各自的优势,并逐步提升对刑事司法人工智能的信任感。
首先,要确立司法人员在人机合作机制中的中心地位,即使现在对于刑事司法人工智能运用的数量和质量越来越高,但刑事司法人工智能的定位和目的始终是为了辅助法官,而不是取代法官,鉴于此以及目前刑事司法人工智能发展的现状,应该建立以司法人员为主、刑事司法人工智能为辅的人机合作机制,主要原因如下:(1)司法案件的案情包罗万象,其过程往往包含着情感分析和价值判断,在这些案件中,人类法官会更加灵活,在审判过程中以及判决结果上,都能更好地平衡双方当事人的利益以及社会的情绪氛围;而人工智能则显得相对“呆板”,特别是在面对复杂案件时,人类法官具有显著优势。(2)以人为主的人机合作机制可以预防人工智能决策过于绝对化和极端化,人机合作机制的作用是为了避免过于突出人工智能的作用,而弱化人在司法审判中的作用,人机合作可以更好地应对人工智能缺陷引发的负面影响,如“鲁棒性”缺失等,也能尽量避免人过于依赖人工智能。
同时,可以根据人们对人工智能信任度的差异来决定运用人工智能的程度。公众对人工智能信任的程度会受到案件类型的影响,一些案情简单、偏标准化的案件可以更多地适用人工智能,例如爱沙尼亚计划设计一款专门应对小额索赔纠纷的AI法官,我国在类案类判推送系统和审判偏离预警系统上也在进一步地探索。
其次,积极探索利用人工智能的技术理性辅助司法人员。人工智能时代,法官的判断和决策模式已经从“单一人脑决策”转向为“聚合智脑决策”,刑事司法人工智能基于其工具理性运行的裁判模式,可以帮助人类法官排除法外因素的不当干扰,通过限制法官的自由裁量权,统一裁判尺度、实现类案类判。例如人工智能的“偏离预警”系统,人工智能可以将算法推测的量刑幅度与法官实际的量刑之间的差异进行比较,并按照偏离程度进行预警,如果偏离程度特别高,意味着裁判结果可能存在合法性或者合理性问题。目前,全国各个省市的人民法院已经逐步引进“预警偏离”系统,江苏建立了首个最高人民法院设立的“人民法院司法大数据研究基地”,并开发出“同案不同判预警系统”;海南一中院初步建立“法官负面行动预警系统”,大大增加了监督的准确性。
此外,要不断增强刑事司法人工智能的权威合法性,努力提高公众对于刑事司法人工智能的信任。权威合法性来源于公众与人工智能之间的道德匹配度,因此有必要在人工智能的司法裁量模型中嵌入价值判断。其一,可以在构建司法裁量模型时将智能主体置于具体的审判场景中,对价值观进行事先预设,并且尽可能广地收集数据,使刑事司法人工智能的价值选择更加贴合社会整体价值观,避免由技术人员将自身价值立场中的歧视带入人工智能。其二,提升刑事司法人工智能法律论证的能力,司法过程中的法律论证是指法官通过说理使公众接受某法律评价或判决的合理性,即复杂案件对争议点作出裁决的合理性重构,是司法信任的重要一环,也是人工智能能力薄弱的地方,因此要强化人工智能在辅助论证中发挥的作用,将法律论证中面对的不同受众进行分类,总结不同受众价值观的共性达成最终价值判断的结果,使人的能动性得到最大程度的尊重。
如前所述,刑事司法人工智能的应用可能会导致当事人参与感的降低,无法在司法程序中感受到过程控制感和尊重感,进而影响对司法程序正义的评价,因此,应当保障当事人在司法审判中的知情权和陈述制度,提升当事人的司法信任。
刑事司法人工智能提高透明度包含两个维度,其一是人工智能领域常见的“打开黑箱”“算法透明”等概念;其二是司法信息公开与司法公正之间的关系。首先,算法黑箱是人工智能作为信息体的本性,且随着智能算法的进一步复杂化,黑箱只会越来越“黑”,这不仅是由于算法过程和机制的性质,也与通用智能的核心机制有关,越是涉及算法信息的基本原理,就越难实现透明度,并且,透明算法可能会引发策略性操纵,因此,“打开黑箱”不可行,同时也无必要,因为当事人对于复杂的算法并不了解,对算法的误解也会使算法透明产生负面效果,更重要的是,司法信息的公开透明就可以满足当事人对于知情权的要求。
关于司法公开与司法公正之间的关系,最经典的莫过于一句古老谚语:正义不仅要伸张,而且必须眼见着被伸张。实际上,司法公开与司法公正之间并不存在绝对的正相关关系,但有研究表明,司法人员有无尽力公开地解决案件对司法信任有显著影响。因此法官在论证说理的过程中应尽量详细地表明人工智能参与司法审判的具体环节和操作流程,并阐明参考人工智能意见的程度和理由,事实上,当事人以及公众对于刑事司法人工智能的不信任,很大程度上来自于法官参照的模糊和语焉不详,这点在卢米斯案中有非常清晰地展现,人们担心法官对于人工智能过于依赖,甚至被人工智能操纵。因此,法官需要向当事人以及公众传达出人工智能并没有影响自身的独立判断,并且这种公开也能让当事人体会到自己在司法审判中的作用与控制感,提升对于司法程序的评价。
同时,适当地给予当事人陈述和证据展示的机会也会提升当事人的司法信任。诉讼应是当事人双方平等对抗、法官居中裁决的稳定三方结构,但有时运用人工智能的法院会展现出“强横”姿态,导致诉讼结构失衡。在卢米斯案中,法院因为COMPAS辅助量刑而剥夺了被告人自由时长,属于对当事人诉讼权利的侵犯。因此不论人工智能如何应用于司法审判程序中,不可减损当事人本应拥有的诉讼权利d88尊龙首页官网,并且随着公众权利意识的增强,也应尽量给予当事人更多陈述案情和表达观点的机会,让当事人在司法程序中体会到尊重。
大数据时代,人工智能技术引领的第四次工业革命,不仅在物质上推动着社会生产力的发展,也在心理上改变了人们的思维惯性和社会的价值观念。刑事司法人工智能作为司法领域的一次技术革新,能够减轻法官的工作压力、提升司法效率,但是也会引发公众对于人工智能的焦虑和不信任。人们对刑事司法人工智能的不信任除了来自人工智能目前客观上存在的缺陷,还有对司法主观程序正义的评价,即在司法过程中感受到的信任感、控制感和尊重感。因此,化解社会中对于刑事司法人工智能应用的信任危机,要求综合法官的经验、价值判断与人工智能的技术理性,坚持在以法官为主导的基础上根据个案选择适用刑事司法人工智能的程度,并不断提升人工智能在价值判断和辅助论证方面的能力。同时,保障当事人在司法过程中的诉讼权利,公开司法信息保障当事人的知情权,给予当事人更多陈述意见的机会,让当事人感受到更多的参与感与满足感,化解司法信任困境。
Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有 Power by DedeCms