当前位置: > d88尊龙首页官网 >
d88尊龙首页官网为进一步推动法学法律学术研究成果的传播应用,2019年起上海市法学会与中国知网战略合作,每年在线卷《上海法学研究》集刊,中国知网全文收录。根据中国社会科学评价研究院发布的《中国人文社会科学学术集刊AMI综合评价报告(2022年)》,《上海法学研究》集刊已获评“AMI(集刊)入库集刊”。其中,依据线卷内容在上海人民出版社线下出版的《上海法学研究》精选本,已由南京大学中国社会科学研究评价中心根据《中文社会科学引文索引来源期刊(集刊)遴选办法》入选为CSSCI(2023-2024)收录集刊。
为更好支持高品质学术生产和品牌化学术传播,上海市法学会全面优化调整“上海法学研究系列刊群”的学术出版与传播:线下出版的《上海法学研究》(CSSCI来源集刊)每年固定出版4卷,刊印法学研究原创首发优秀学术作品,上海市法学会官方微信公众号同步全文刊发所有作品;线上出版的“上海法学研究系列刊群”出版形式和年度出版总量不变,进一步聚焦明确六个主题方向,力求能持续提升出版物质量,尽快形成中国法学法律界高识别度的品牌内容和出版风格,上海市法学会官方微信公众号选发部分特别优秀的作品,现焕新推出其第二种——《新兴权利》。
人工智能生成内容的可版权性及默认权属分配——兼论判断作品独创性的选择概率标准
作者:熊进光(江西财经大学法学院教授、博士生导师),贾珺(江西省景德镇市中级人民法院法官,江西财经大学法学院民商法专业博士研究生)
内容摘要:ChatGPT与元宇宙具有密切的联系,前者是布局元宇宙的主要抓手,并且两者具有许多共通性。在资本市场热捧概念的同时,应评估 ChatGPT所蕴含的法律风险。虽然算法歧视、算法黑箱并非ChatGPT特有,但却可能会因为“智能化”而导致虚假信息传播、侵害知识产权、侵害个人信息权、泄漏商业秘密及数字网络安全等问题。应完善ChatGPT人工智能立法、构建相关侵权责任体系、建立相关责任保险制度,并从数据收集规则、数据来源、生成内容、操作标准、风险评估、参与主体的责任意识及监管力度等方面完善规制。结合元宇宙时代背景,采用民法典立法模式进行修改,用分步走的立法路径对民法典体系结构进行整合,过渡性地解决ChatGPT人工智能法律问题,从而更好地造福社会。
内容摘要:人工智能时代下的公民在享受人工智能便利的同时,也必须直面人工智能给公民权利带来的潜在风险。算法不断深度演进加大了人工智能行为的不确定性,极易导致人工智能违背设计者初衷进而损害公民权益。损害结果发生后,被侵权人能否直接请求人工智能承担民事责任是一个重要问题。学界关于人工智能是否具有法律主体资格意见不一。据现有的法律体系而言,人工智能没有法律意义上的权利及义务,无法成为民事法律主体。从法理逻辑角度,人工智能欠缺法律主体必要的自我意识及其不具有自律性决定了人工智能无法具备法律主体资格。在承认人工智能不具备法律主体资格的前提下,以康德的自律公式为理论支撑,构建人工智能侵权的责任承担体系。
关键词:生成式人工智能 人工智能侵权 侵权责任承担 民事法律主体 自律性 自律公式
内容摘要:对于人工智能是否具有刑事责任主体地位的问题,当前国内有肯定说与否定说两种立场。从违法性认识的角度来看,人类由个体经验出发,对其行为是否符合法规范的期待产生违法性疑虑,并采取努力认识法律的合理性行为,具有规范上的可交谈性。生成式人工智能“自上而下”或“自下而上”的经验灌输不会产生违法性疑虑,自然语言处理技术基于形式逻辑对刑法文本的解读并不能理解评价规范的禁止性,只能从外部进行事实判断而无法进行价值评估与抉择,不能响应刑法规范,故不具有刑事责任主体地位。
关键词:人工智能 仿生人 违法性认识 自然语言处理技术 主体地位 规范责任论
内容摘要:在人工智能信息等技术驱动下,以ChatGPT为代表的生成式人工智能(AIGC)快速发展,推动了超级人工智能平台的日益兴起。不同于其他大型与中小型人工智能平台,超级人工智能平台在用户规模、业务种类、经济体量与限制能力层面的要求更高,具有更加显著的数据、算法与算力优势。然而,算法具有内在的技术缺陷,导致超级人工智能平台的算法黑箱问题更为严重。通过采用规范研究方法,基于算法技术在超级人工智能平台的应用现状与算法黑箱问题,从公共利益理论解构算法黑箱的治理依据,促进超级人工智能平台的算法向善、纠正超级人工智能平台的市场失灵、维护社会公共利益与实质公正。通过采用比较研究方法,有选择地借鉴域外国家与地区算法黑箱治理经验,我国可以从算法伦理、透明与问责层面完善AIGC浪潮下超级人工智能平台算法黑箱的治理路径,刺破超级人工智能平台的算法黑箱。
关键词:生成式人工智能 超级人工智能平台 公共利益理论 算法黑箱 算法规制 治理路径
内容摘要:短视频平台运用算法推荐技术主动向公众推送视频内容,在使平台服务提供者增加收益、提升曝光度的同时也提升了推荐效率。这导致侵权行为概率升高,可能构成短视频平台著作权帮助侵权。短视频平台虽能以算法推荐的技术中立原则寻求抗辩,却无法在能够识别明显侵权内容时免责。在侵权范围扩大的情形下,应当明确算法推荐使短视频平台的注意义务有所提升,将平台明知用户行为侵权作为其承担责任的决定性条件。过滤措施的引入有助于平台明确侵权内容,但需要考虑到措施对平台造成的负担、过滤技术的发展状况以及其能否真正识别侵权内容等因素。
内容摘要:“人工智能+”的治理是理论界和实务界的新课题,刑事司法人工智能的应用正在面临不被信任的现实困境。目前关于刑事司法人工智能的质疑主要集中在人工智能运作的不透明性和算法的歧视与偏见等方面,不过,这些问题并不是刑事司法人工智能独有的问题,法官在审理案件的过程也会受到“认知偏差”和“噪声”的影响,但是人们对法官的包容度明显高于人工智能,这可能与人们在司法程序中感受到的公平正义有关。影响主观程序正义的因素包括信任感、控制感与尊重感,为此,提升公众对刑事司法人工智能的信任应该建立充分发挥法官主导优势和人工智能辅助价值的人机合作机制,保障当事人在司法过程中的知情权和陈述权等诉讼权利。
关键词:刑事司法人工智能 算法 司法偏见 感知正义 主观程序正义 司法信任
内容摘要:ChatGPT引爆了新一轮关于人工智能的讨论。人类面对人工智能呈现的不同认识映射出人类在科技更新迭代面前的积极、惶恐等复杂心境。尽管人们对人工智能的认知视角及接受程度存在差异,但在技术向善这一价值期待上人类理应保持一致。技术向善并不意味着人工智能能够理想化地满足人类希冀的各项要求,而是承认技术存在适当的功能限度。随着技术的精进,人工智能话题也亟待深入,但有关人工智能的替代性、人工智能的成长路线呈线性以及人工智能治理未实质社会化等认识与现状阻滞了探讨朝前延展。问题指引着路径选择,应当借由坚持人在回路的人机交互方式,尝试分领域发展工智能,提供治理社会化的条件来矫正现存的人工智能误识,构筑人机和谐的社会生态。
内容摘要:随着人工智能技术的发展,基于深度学习的生成式人工智能模型成为学界研究的热点。这类模型利用大量现有数据进行深度学习,实现人机交互。其从数据收集、处理及使用等整个生命周期都存在数据泄露的风险。因此,可从数据安全和隐私保护的法律责任、数据来源和用途的合法性和合规性、数据透明度和可解释性三个角度,结合案例与相关研究,探讨人工智能模型中数据泄露的法律问题与影响。研究表明,实践案例中现行法规难以涵盖人工智能数据泄露的新问题。为解决该现象,监管者、数据控制者和使用者三方主体应共同努力营造数据安全与使用合规的环境,加快构建人工智能法律框架,推动相关立法,是应对数据泄露与推动人工智能发展的关键。
内容摘要:AIGC的强大能来自于训练数据和生成算法的模型功能,很大程度上取决于数据与训练的前期投入,海量用户巨量信息的注入是其深度学习的基础条件。二者共轭相生的互向关系不可避免引起了关于用户个人信息安全的担忧,AIGC本身存在着数据标注的人为歧视、巨量参数过导致的系统脆弱、信息修改撤回的技术性困境、交互使用中的敏感信息溢出等问题。用户在使用AIGC的便捷服务的同时,基于何种情形可以认为其已经授权同意,并接受相关风险承担和信息处理的法律后果。因此,应将以用户同意的合理期待与产业发展的现实需要为平衡,以信赖光谱为谱系进行动态衡量。
关键词:AIGC 合理信赖利益 个人信息保护 数据流通 信息处理 用户同意
内容摘要:主张的数据法益学说陷入了法律自治的幻想,架空了生成式人工智能时代的社会现实;工具主义则将数据立法完全视为保障人类数据生活的手段,置法律本身内在的规范价值于不顾。场域理论的引入,可以实现对于和功能主义的折中和超越,将生成式人工智能时代数据的内生性与外源性风险同刑事法治的时代发展相结合。生成式人工智能时代的数据场域内,科技企业、用户和监管者之间的资本关系不均衡,尚未形成技术创新和数据安全保护兼顾的惯习,导致实然层面存在数据自身风险、数据内容风险、数据技术风险和数据秩序风险。而从应然的规范层面来看,对于实然风险的治理存在数据自身法益的保护越位和缺位、数据内容法益、数据技术法益和数据秩序法益的保护缺位的不足,未能实现对于资本惯习的纠偏。一方面,通过治理型监管,将科技企业数据安全法益保护成效与资本相关联,提高用户认知能力并赋予其更高的参与监督权限,监管者介入科技企业创新和发展全过程,从内部重塑资本惯习结构;另一方面,通过“数额标准”与“情节标准”并重和强调数据相较于计算机系统的独立性纠偏保护越位和弥合保护缺位,合并刑法第285条第1款和第2款弥合数据内容法益保护的缺位,明确数据技术和数据秩序的法益定位弥合数据公共法益保护缺位,从外部纠偏异化的资本惯习。
关键词:场域理论 生成式人工智能 数据安全法益 治理型监管 规范重塑 数据风险样态
作者:严嘉欢(华东政法大学国际金融法律学院硕士研究生),王昊(同济大学上海国际知识产权学院硕士研究生)
内容摘要:生成式人工智能是人工智能技术的一次重大应用创新,但也带来了新的个人信息保护问题。现有的个人信息保护法所确立的信息保护制度框架尚不足以充分应对生成式人工智能所带来的新的挑战。生成式人工智能算法具有高度复杂性,在很大程度上架空了现有的用户知情同意机制。个人信息保护法所确立的最小必要原则等个人信息保护原则难以适用于生成式人工智能。为了规制生成式人工智能所带来的个人信息保护问题,必须强化用户知情同意机制,同时在该领域充分落实个人信息保护原则。
关键词:生成式人工智能 ChatGPT 个人信息保护 知情同意机制 最小必要原则 个人信息删除权
内容摘要:欧盟和英国为了规制生成式人工智能采取了不同的监管模式。欧盟的总体监管策略是按照风险等级分类监管、依据人工智能的特点调整侵权责任规定、构建完整的法律框架。针对生成式人工智能规定了基础模型提供者的义务、专家评估和全链条监管。英国的总体监管策略是建立以创新为宗旨的监管框架、以结果为导向的治理方法、制定跨部门监管原则、建立中央风险职能部门。针对生成式人工智能则认为监管为时过早。通过分析两种模式的特点及弊端,从借鉴有益经验和规避不利缺陷的角度出发,我国的监管模式可以从实行全链条监管、明确监管的法律原则、完善侵权责任制度、摒弃人类中心主义的治理思维等方面完善。
关键词:生成式人工智能 监管模式 监管的法律原则 侵权责任制度 比较法 全链条监管
内容摘要:随着生成式人工智能的兴起与发展,将ChatGPT嵌入数字法治政府,促进依法行政,实现政府治理的法治化和信息化具有了诸多可能。ChatGPT能够以其先进的技术、理念与模式不断赋能数字法治政府建设,提高政府决策的科学性、推动政府治理降本增效、创新政府治理模式,但与此同时也产生了诸如国家主权安全风险、行政权力失信风险、数据合法合规风险等现实问题,虽然新生的技术应用能够解决政府数字化建设中的诸多“近忧”,但亦必须对新技术相伴而生的各种风险给予足够的“远虑”,所以,从部门立法到中央立法逐步构建起以风险防控和法律规制为导向的生成式人工智能应用机制,实现生成式人工智能的可知、可控、可用、可靠,是ChatGPT嵌入数字法治政府建设的当务之急。
关键词:生成式人工智能 赋能 数字法治政府 技术风险 法律规制 依法行政
内容摘要:生成式人工智能的问世给企业数据合规事业带来独特挑战,在知识产权、个人信息与隐私、侵权主体认定以及数据定价上均存在法律风险。《数据二十条》创新性地提出了建立数据三权分置路径,对解决上述企业数据治理难题具有独特的现实优势,包括知识产权侵权的替代性救济手段、协调个人与企业法律关系、以“权利义务对等原则”穿透侵权主体的面纱以及通过促进数据流通完善数据定价机制。对此,应当协调推进目前各项立法议程、加大区块链等先进技术的应用力度,并推广数据经纪人机制等手段,从而填补目前监管空缺,完善生成式人工智能企业数据合规路径。
关键词:数据产权 生成式人工智能 法律风险 数据合规 企业合规 数据三权分置
内容摘要:AIGC生成歌曲兴起,对现有法律带来诸多挑战。在AIGC歌曲生成过程中数据存储和模型训练阶段会侵犯复制权并受到表演者形象保护权的制约。对于原作歌曲而言,AIGC生成歌曲现场传播属于公开机械表演,应获得音乐作品著作权者许可。若在电台、电视台或者网络直播中传播属于非交互式传播适用广播权;在互联网上提供点播、下载属于交互式传播适用信息网络传播权。对被模仿的表演者而言,AIGC歌曲生成过程中没有表演行为,不侵犯表演者权。在人格权问题上,歌曲的生成允许使用他人的声音模型,不构成对他人人格的侮辱、丑化,在已经声明为AI创作的前提下也不属于混淆和欺骗公众,但擅自使用他人声音模型会损害声音中的财产价值,侵犯人格权。
关键词:AIGC生成歌曲 声音模型训练 机械表演 表演者权 人格权 权利保护
内容摘要:ChatGPT等生成式人工智能仍处于弱人工智能时代,但其生成物无论是在形式上和实质上都符合“作品”的构成。司法实践表明人工智能生成物权利人能够得到民事救济,而刑法是否要对人工智能生成物给予保护还存在价值困境和规范困境。应当采取双层法益理论来理解侵犯著作权罪,避免“数字鸿沟”的产生,从法益涵盖的角度入手,论证ChatGPT等生成式人工智能的作品系侵犯著作权罪的犯罪对象,并且对侵犯著作权罪进行细化认识。人工智能生成物不是独立的作品类型,通过扩张解释能够使得刑法规定囊括人工智能创作。基于此,应当严格界定人工智能生成物构成作品的标准。考虑到侵犯人工智能生成物的社会危险性程度,对人工智能生成物给予低于自然人的保护。
关键词:ChatGPT 人工智能生成物 侵犯著作权罪 生成式人工智能 独创性 保护法益
内容摘要:自人工智能出现以来,人类对于人工智能的担忧从未缺席。科技的突飞猛进对以人为中心的理论思想带来了强烈的冲击,“人类中心主义”的滥觞与人工智能的高速发展成为时代背景下必然且难以调和的矛盾。“人是目的”的现行著作权理念难以应对科技奇点下人工智能法律问题,为使法律符合科技的进程,应对“后人类主义”进行再诠释,实现“人类中心主义”向新“后人类主义”的著作权立法倾向转变,赋予人工智能有限法律主体地位,保证人工智能生成物之为“作品”的正当性。同时,应在新“后人类主义”视野下根据人工智能体智能程度的不同,以贡献为主要衡量标准,平衡多元主体的利益,确定人工智能生成物权利归属与分配。
关键词:人工智能生成物 著作权 权利归属 人类中心主义 后人类主义 再诠释
4.人工智能生成内容的可版权性及默认权属分配——兼论判断作品独创性的选择概率标准
内容摘要:面对人工智能带来的著作权法前沿问题时,应充分考虑已有制度工具的潜在回应能力。独创性的选择概率标准是指,如果信息内容的产生概率较低而不容易出现偶然一致,且在因果链条上是由非抄袭的、容易识别的人类选择导致的,则该表达具有独创性,著作权默认属于作出选择的主体。选择概率标准能够得到不同法域司法实践及著作权法一般理论的支持。根据选择概率标准,人工智能生成内容通常具有可版权性,其著作权默认归属于在内容生成过程中作出相应选择的主体。如果内容生成过程中存在多方主体的选择,则应将生成内容默认视为合作作品。当这种合作作品的制度安排不能适应特定产业的实践需要时,市场可以提供激励,促使相关方通过协议重新约定合适的权属规则。
内容摘要:人工智能技术的发展具有多个分支,虚拟数字人技术是一种多模态模型的人工智能,和大语言模型的人工智能相比,生成内容的著作权争议问题既有共性也有自身特性。多模态的技术特征使得生成内容具有集合性,会同时涉及著作权和邻接权问题。虚拟数字人自身不具有主体性地位。生成内容的可版权性判断要坚持“自动生成”和“辅助生成”的区分。生成内容的邻接权判断要正确认识“表演”的含义,权属问题争议的核心是如何限制作者和表演者的人身权利。虚拟数字人技术下的商业模式导致表演者的人身权利,尤其是署名权,会对财产权利的实现造成较大影响。此时可以从内部援引人身权利自身的行使规范,限制人身权利的行使方式,还可以从外部援引其他权利对于人身权利行使进行限制。
内容摘要:AIGC的发展颠覆了我们对传统作者身份的认知,人类将不再是创造性作品的唯一来源。然而AIGC作品的出现并不意味着人类作者身份的消解,这是因为人类作者身份的产生和演化有其独特的历史内涵。人工智能作品著作权的认定应从人类创造性贡献的角度来考虑,当最低程度的创造性在作品中得以表达,该作品就应受著作权的保护。对于属于人工智能范畴的 AIGC,其生成的作品由于缺少人类的创造性贡献,因此无法获得著作权的保护。事实上,用户通过提示生成作品时,创作过程已经脱离了用户的控制,用户对最终的作品未能产生实质上的创造性贡献。在司法实践中,我国与美国都坚持不含任何人类创造性表达的AIGC作品将无法获得著作权保护的理念。
作者:李国泉(上海市闵行区人民法院党组成员、副院长),方敏(上海市闵行区人民法院民事审判庭庭长),段文澜(上海市闵行区人民法院民事审判庭法官助理)
内容摘要:在人工智能的加持下,以比特币以及比特币的流转模式为蓝本的一系列网络虚拟货币的出现,加速了作为数字经济最高级别存在场景的元宇宙概念逐步落地生根,呈现出蓬勃发展之势。元宇宙数字经济生态建构背景下伴生于虚拟货币的法律风险凸显出现实存在与法律认定的异化与割裂的问题:一是虚拟货币的内涵定义与分类标准欠缺;二是虚拟货币及账户所有权归属逻辑不明,财产性权益归属认定时有争议;三是虚拟货币自身受保护性存在争议,物权制度以及相应社会关系的论证尚未统一。针对虚拟货币法律风险规制思路必须与时俱进:一是法律定性因时制宜、公益优先,但合理范围内的私益亦应受到保护,对于虚拟货币本质论证应立足于特征履行。二是归属认定应追溯获取渠道及流转方式。三是保护路径立足现实秩序维护,慎重否认法律行为效力,消除疑虑与恐慌,洞悉其本质给予其合理的物权保护。
内容摘要:人工智能正全方位且深刻地影响着司法审判。从世界范围内智慧司法实践来看,人机协同尚处于“人力主导,机器为辅”的阶段。“人机协作”在智慧司法不同阶段具有不同的功能定位,立案阶段目的在于人民司法获得感的实践提升,智慧裁判目的在于对数字正义的司法追求,智慧执行的目的在于对胜诉权益的司法维护。然而,我国智慧法院建设仍面临着缺乏能动司法意识,存在机械司法的法律风险、阻碍法官自主性的伦理风险,算法黑箱与技术鸿沟依然存在的技术风险。因此,在“人机协作”机制完善中应以“人”的实质性参与为前提,以“人”“机”协同共生为重点,充分实现技术赋能,促进法官与各类诉讼参与人共享技术红利,为智慧司法的高质量发展提供有力的理论支撑。
关键词:“人机协作” 智慧司法 算法可解释性 法律风险 伦理风险 技术风险
2022年年末,生成式人工智能的爆发将人工智能再次带入人们视线中。法学界沉寂很久的人工智能讨论再次兴起。智慧法院的建设也在加速中,生成式人工智能是否能够助力成为一个急需解决的问题。实际上人工智能在智慧法院的应用并非一个新话题,大部分学者已经对里面的理论进行了详细的阐述,但是事实上我国法院人工智能的建设是较为缓慢的,理论上提到的一些问题,实际中可能还没有出现,但是生成式人工智能的出现打破了这一局面。人工智能在智慧法院的应用需要直面那些曾经“科幻”的问题。通过解释LLM型生成式人工智能的原理引出其运用于智慧法院的必要性,同时列举了现有的商用模型和法院能够现实落地的运用和未来的探索。最后再通过法律规定和技术操作层面解答了实践中可能出现的问题。
作者:朱庆华(上海市徐汇区人民检察院党组书记、检察长、二级高级检察官),宋珊珊(上海市徐汇区人民检察院第三检察部二级检察官助理)
内容摘要:以ChatGPT为代表的生成式人工智能现象完成技术突破,不仅带来人工智能奇点的讨论和热议,也引发数据安全和隐私、算法歧视、伦理道德、公平正义等新一轮质疑。在司法领域,技术理性缺乏人类价值、经验理性的考量,算法黑箱冲击着传统程序正义理论,技术话语权有时会“俘获”司法话语权。这些风险均需纳入治理者的考量范围。以风险识别、分析、评价和管控为路径,基于目的与工具的合理性明确生成式人工智能作为促进人类发展的“工具”价值定位,有效识别法律算法化与算法法律化的冲突和风险,从而确立风险控制模式下技术介入司法的边界,据此以技术弥补智能司法应用功能应然性发挥不足困境,探索“司法数据—法律监督—辅助办案—社会治理”多维司法应用构面,并从“伦理原则—法律规则—技术方法”三个层面完善应用场域的框架策略。
关键词:生成式人工智能 司法应用 风险识别 风险规制 法律算法 智能司法
内容摘要:指导性案例与司法解释的关系涉及的是指导性案例的性质或指导性案例是否是司法解释之新形式的问题。对这一问题的回答,首先需要明确“法律解释”“司法解释”“法官裁量解释”等概念的实质内涵。司法领域的法律解释可以分为“抽象法律解释”和“具体法律解释”两种类型,我国司法解释的主体只有最高司法机关,属于抽象法律解释;与司法解释不同,蕴含法官裁量解释的指导性案例是具体法律解释机制。在二者的互动路径上,应采取限缩司法解释权,拓展指导性案例之功能的方式,使二者协同发展,共同服务于“统一法律适用”的目标。
关键词:指导性案例 司法解释 法官裁量解释 法律解释 法学方法 解释主体
内容摘要:伴随互联网信息技术的高速发展,越来越多利用信息网络技术的新型犯罪层出不穷,相关犯罪产业链愈发精细,逐渐形成了上游信息网络犯罪、中游帮助信息网络犯罪活动罪以及下游掩饰、隐瞒犯罪所得罪等一条完整的犯罪产业链条。尽管分工明确,但上述各罪名在司法实践中的适用仍存在较大争议,诸如为他人实施信息网络犯罪行为提供银行卡账户的行为具体应认定为何种罪名目前尚存较大争议,在司法实践的具体裁判中其定罪量刑也各有不同。根据帮助者与他人所实施的犯罪行为是否有通谋、对他人所实施犯罪行为的明知程度、客观帮助行为表现等方面展开探究以及对立法上的一些争议点进行梳理整合,以期为司法实践正确适用各罪名提供有益参考。
关键词:帮助信息网络犯罪活动罪 掩饰、隐瞒犯罪所得罪 电信诈骗 共同犯 罪名区分
内容摘要:民法典第580条第1款第2项规定履行费用过高时债务人将获得一项给付拒绝权,对于该权利的性质和构造有较大争议。主流学说认为,其为债务人的一项抗辩权。其他学说则有情事变更说、狭义抗辩说和形成权说等。情事变更说错误地理解了给付困难的本质,其失衡的并非合同的给付与对待给付,而是债务人的给付成本与给付利益。狭义抗辩说没有赋予债务人以自由选择是否履行其义务的权利,也具明显的弊端。抗辩权说虽赋予债务人以选择权,却不能很好地保护债权人的预期,在一时及永久抗辩权的性质及相应法效果上也难以调和。在结论上,形成权说在操作上更为简便,其以债务人单方意思表示的形式使义务消灭,更符合给付困难自身的构造,应予以采纳。
内容摘要:证券期货违法犯罪是典型的行刑交叉的违法行为,通过一起证券违法犯罪案件涉及的行政处罚与刑罚关系问题,结合理论及实务界文献资料、法律法规及案例研究,对该问题作分析研究。在同一行为人同一违法行为同时涉及行政与刑事定性评价时,行政机关应在行政程序调查终结后行政处罚做出前,将案件整体移送公安机关,并待刑事司法处理结果,再确定对该违法行为是否作行政处罚及作何种行政处罚,此为刑事优先原则应有之内涵。但是,对于不处罚不足以降低或消除行为人违法行为对国家、公众利益、公共秩序的现实危险时,行政机关可在移送前对违法行为人作出能力罚等刑法对于该等违法行为所没有规定的异质罚,此为刑事优先原则之例外及行政处罚可与刑事处罚并存原则应有之义。刑事优先原则并不与行政处罚可与刑事处罚并存原则相矛盾。
作者:朱浩川(南京师范大学法学理论硕士研究生),陈持家(南京师范大学法律硕士研究生)
内容摘要:生成式人工智能裁判本质上是算法研发人员利用神经网络将案件各要素与裁判结果间的映射关系生成为函数表达,再将新案件要素输入该函数并判别输出结果。生成式人工智能裁判无法运用情理有三点技术上的原因:第一,训练人工智能的样本较少,人工智能不能生成情理的函数表达式;第二,情理含义的复杂性与适用场域的特殊性加深了案件材料数据化的难度;第三,司法裁判中情理与法理的纠葛提高了人工智能解读并运用情理的难度。情理在原始材料中有着语言和价值的不可还原性,不能被人工智能接收。生成式人工智能不存在自我意识,无法真正地理解并运用情理。
作者:唐万钰(西南大学法学院硕士研究生),宋美茜(西北政法大学硕士研究生)
内容摘要:生成式人工智能的应用带来智能化审判功能层面上的更多可能,然而《人工智能司法应用意见》在角色定位及应用范围上的含糊规定,阻滞其在司法审判中的适用前景。生成式人工智能介入司法审判应坚持辅助性定位,并区分决定辅助性定位的实质和表现,司法审判本位要求是辅助性定位得以形成的实质性因素,而技术缺陷则是派生性表现。生成式人工智能的技术特征带来司法领域的功能延展,其主要功能表现在促进裁判标准的普遍化建构以维护司法公正,以及实现裁判文书的智能化生成以提高司法效率。辅助性定位的共识不能作为介入限度研究的终点,而应在要件判断的指引下细致分析。其结果就是生成式人工智能推理能够适应事实性要件涵摄要求,却不能适应评价性要件判断的要求。
关键词:生成式人工智能 司法审判 辅助性定位 功能表现 事实性要件 评价性要件
本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。
Copyright © 2002-2017 DEDECMS. 织梦科技 版权所有 Power by DedeCms