前言
2017年开始,随着Alphago的病毒式传播,人工智能成为当时最火热的话题。同样,关于智慧法院和人工智能的讨论也呈爆炸式增长。当然,智慧法院+人工智能的热度并没有持续多久。一方面,是因为有其他更新颖的内容出现例如元宇宙、NFT;另一方面,是由于人工智能并没有出现人们想象似的爆炸发展,科幻式的“机器人法官”并没有出现。也正是因为人工智能发展缓慢,大部分文章并没有对智慧法院具体的落地应用进行分析,多数还是集中于讨论人工智能在智慧法院的理论研究上包括但不限于数据安全、算法风险等。
“概括而言,理论界有关法律人工智能的研究虽然热闹,但仍处于开拓阶段,尚缺乏对法律人工智能运用现状与未来的深刻把握与思考,至于所提出的关于法律人工智能如何运用的建议,也只是方向性的。相较于理论界,实务界对法律人工智能可能有着更多的期待,并采取很多实际行动”。国内关于智慧法院和人工智能的理论研究十分完善,但是在智慧法院的建设中,很多前瞻性的问题并没有获得足够的学术关注论。有关学术讨论,也没有过多考虑实践中具体的应用。因此,本文将聚焦于其是否可以立即落地智慧法院应用,其应用的场景如何,以及对未来的探索。
2022年12月9日,最高人民法院发布了《关于规范和加强人工智能司法应用的意见》(以下简称“人工智能意见”)列举了具体的目标,原则和应用范围。其中,第2条明确提到:“到2025年,基本建成较为完备的司法人工智能技术应用体系,为司法为民、公正司法提供全方位智能辅助支持,显著减轻法官事务性工作负担,有效保障廉洁司法,提高司法管理水平,创新服务社会治理。到2030年,建成具有规则引领和应用示范效应的司法人工智能技术应用和理论体系,为司法为民、公正司法提供全流程高水平智能辅助支持,应用规范原则得到社会普遍认可,大幅减轻法官事务性工作负担,高效保障廉洁司法,精准服务社会治理,应用效能充分彰显。”可以看出,人工智能司法应用是大势所趋,也是未来智慧法院建设的重点方向。
而非常巧合的是,就在2022年12月底,以生成性预训练变换模型(GPT,Generative Pre-trained Transformer)为代表的大型语言模型(LLM,Large Language Model)生成式人工智能开始火遍全球,其出现打破了沉寂多年的人工智能市场。生成式人工智能(Generative AI)是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。这是一个无监督或部分监督的机器学习框架,并通过使用统计学、概率等生成内容。不同于以往的人工智能,生成式人工智能不仅能够提炼信息,还可以通过利用现有的数字内容检查训练实例,创建内容并学习其模式和分布。本文讨论的是以ChatGPT为代表的LLM型生成式人工智能。LLM型生成式人工智能的爆火明显超出了人们对于人工智能的想象,沉寂很久的人工智能再次走入人们眼中。在ChatGPT出现之前,任何人工智能实践的运用还是比较基础的,主要是如语法检查、语言润色、文本翻译、数据分析等,此类几乎不具有自适应能力的自动化技术往往被称为弱人工智能。然而,ChatGPT类LLM型生成式人工智能的出强大的自然语言处理能力现出强人工智能特性,具有直接生成内容的能力。人们在惊讶的同时,也有不少疑问,其真的能解放人类的生产力吗?还是只是高级版的辅助?具体到智慧法院的建设中,这种生成式人工智能有无风险?其能有效地帮助法官吗?其是否能无缝加入现有的智慧法院建设中?笔者认为毫无疑问,其能够给智慧法院建设带来了新的变化,而且展现出巨大的应用潜力,虽然其现阶段有不少问题,但不妨碍其在法院的应用,这也是撰写本文的意义所在。LLM型生成式人工智能,对于人工智能而言是新的方向,同时也是针对智慧法院建设的一股强心剂。或许LLM型生成式人工智能将开启真正的人工智能司法应用时代。
一、LLM型生成式人工智能在智慧法院应用的必要性
(一)
LLM型生成式人工智能的定义
生成式人工智能在智慧法院的具体应用主要是LLM型生成式人工智能,强调LLM型生成式人工智能的定义是为了更好地理解此类人工智能的发展过程,以便能更好地运用,也能厘清为何LLM型生成式人工智能工作原理。不难发现,ChatGPT在很多场景下已经很成熟,例如文章修改或者翻译等,因此了解其定义,才能更好地运用,而不是如同对待“天外来客”一样,对待LLM型生成式人工智能。虽然ChatGPT是实现LLM大规模语言模型的技术,ChatGPT出现之前,LLM并没有作为一个独立的概念被广泛讨论和使用,且之后笔者会大量以ChatGPT作为例子举例,但是其终究只是是一种LLM型生成式人工智能具体运用,不能单以ChatGPT来指代LLM型生成式人工智能。
LLM型生成式人工智能,简单解释就是基于LLM模型,而生成文字、图片等内容。其中的关键是LLM模型,即大型语言模型,其是指包含数千万级别参数的语言模型,这些参数是在大量文本数据上训练的。LLM模型的基础理论在于自然语言处理(Natural Language Processing,缩写NLP),NLP的发展阶段为,先是规则阶段由人先从数据中获取知识,归纳出规则,写出来教给机器,然后机器来执行这套规则,从而完成特定任务。之后是统计机器学习阶段,由人转述知识变成机器自动从数据中学习知识,在之后是深度学习阶段标注数据量提升到千万级,其中较为典型的就是预训练阶段典型技术栈包括Transformer。最后到现在大型语言模型阶段,其爆发是从2022年年末起,目的是让机器能听懂人的命令、遵循人的价值观。可以看出先前阶段AI工具比较机械,而LLM型生成式人工智能它是一种非常大型的语言模型,其训练数据量和模型参数数量非常巨大;因此实际上LLM型生成式人工智能不是突然出现,而是一种循序渐进的变化。
接下来,我们就以最常见的ChatGPT为例,分析提取LLM型生成式人工智能的关键词。所谓的GPT预训练,是一个基于transform模型的预训练语言模型,它的训练逻辑如下:第一是语料准备,从互联网上收集大量文本语料。第二是对数据预处理,对语料进行处理,把它们分割成许多独立的句子或段落,对每个句子进行分词。分词后把每个单词转换成数字,生成一个数字序列,然后构建成数字词典。ChatGPT训练就是使用这些数字序列用transformer模型进行模拟场景试验,需要投入大量的人工干预,并使用监督学习的方式对预训练模型进行微调。根据奖励模型优化策略,然后生成输出,ChatGPT的预训练应当是基于正向传递,反向更新,梯度收敛,预训练模型降低了获取更高水平人工智能的成本。
这里我们提取到了几个重要的关键词,数据、模型、预训练和微调。当然可能有疑问的是,ChatG‑PT的transform模型为何不是关键词,这是因为transform模型是ChatGPT特有的模型,而类似于清华大学开源的LLM型生成式人工智能ChatGLM-6B,则是基于General Language Model(GLM)架构。类似的像微调中,ChatGPT也有其特有的RLHF全称是reinforcement learning from human feedback技术,通过构建人类反馈数据集,训练一个reward模型,模仿人类偏好对结果打分。
数据、模型、预训练和微调中,数据和模型比较通俗易懂理解,这是LLM型生成式人工智能的出发点。换言之,没有数据和模型也谈不上预训练和微调。后面二个则是LLM型生成式人工智能的重点。LLM型生成式人工智能预训练方式虽然各有不同,但其核心还是存在二个关键词就是Embedding和prompt,prompt是一种基于自然语言生成模型的输入提示机制,可以在一定程度上指导模型的生成结果。通过prompt,我们可以给模型提供一些提示、条件或者上下文信息,以期望模型能够生成更准确、更符合预期的输出结果。而Embedding则是LLM型生成式人工智能消化prompt的步骤,其分为单词Embedding和位置Embedding,通过两者的结合和模型的应用就可以得出输出内容。
而微调的话,则是人为的对预训练的结果进行调整,以期达到目标效果。不难发现,LLM型生成式人工智能的运作原理其实和法律实践中的三段论,prompt代表法律问题,Embedding代表着寻找法律事实规范的过程,而微调则是最终得出结果的法律适用,LLM型生成式人工智能和“形式法治”的法律三段论几乎完美匹配。因此,LLM型生成式人工智能就有适用的空间,当然也带来了一定的问题。
(二)
人工智能在智慧法院应用的域内外现状
LLM型生成式人工智对现有的智慧法院建设是否有帮助,其是否还是“科幻想象”?其还是能够大包大揽智慧法院的建设?笔者认为,这就需要从当今的国内智慧法院建设现状入手。我国的智慧法院建设一直在进行,现在已经进行到智慧法院3.0阶段。但是对于如何细分管理人工智能司法应用,现阶段还是略有欠缺。现有状况下对所有的人工智能应用统一称呼,统一推进并不利于发展,因此笔者结合《人工智能意见》的规定,梳理当下人工智能司法应用的情况。
笔者认为,现有的国内人工智能司法应用可以分为两大类,一类是非NLP人工智能,偏向与程序运用和数据运维管理类,典型代表为在线诉讼、电子送达、语音转换文字和文字OCR识别。事实上,这些人工智能技术是比较成熟的,笔者在实际运用中也切实感受到了便捷。比如互联网在线诉讼,互联网法院的建设,我国还走在了世界的前列,这也看出我们智慧法院的建设成果。还有电子卷宗归档,有效地解决了大量事务性问题。需要强调的是,非NLP人工智能事实上并不太需要LLM模型的介入,其拥有自己的一套技术。虽然LLM模型也可以胜任语音转换文字和文字OCR识别还有翻译一类的工作,但是效果上和现有的技术并没有过多的差别,如果强行推进LLM型生成式人工智能可能适得其反。另一类就是NLP人工智能,根据上文提到的NLP发展阶段来看,现在智慧法院的NLP人工智能只是规则阶段和统计机器学习阶段,所以实际效果并不理想。常见的智慧法院NLP人工智能运用为文书辅助系统、诉讼导航、法律检索等等。
现阶段,智慧法院存在一个重要的问题就是模型落后。以文书辅助而言,现阶段,顶多是格式排版比较流畅,智能生成文书几乎无法实现,包括简单的程序性文书,虽然有模版,但是还是主要依赖与人工填写,完全称不上人工智能。另外,文书校对的实践操作也比较机械,连市面上同类型的文书改正效果都无法达到。再以法官更为看重的法律检索而言,基本上还是依靠人工输入,自行检索,即使是所谓的智慧查询,也很难达到满意的效果。而且除了模型落后外,数据的来源也很滞后,完全依赖于人工导入材料,有时候连法律都无法完备,更不要说类案检索了。其实关于模型和数据落后的问题。左卫民教授也曾指出这个问题,但到现今问题依然没有解决。当然,LLM型生成式人工智能的代表ChatGPT的数据来源也比较少,且只到2021年,但其能基本理解一些法律事实,效果上起码起到了一定的辅助作用。在这种情况下,现有的NLP人工智能,只会让法官产生排斥心理,所谓的人工智能一点忙也帮不上,并没有缓解自己的工作压力,而学术讨论中的那些人工智能更像是天方夜谭。
从域外来看,其发展和国内基本一致。主要还是智能程序还有案例检索,当然域外在NLP人工智能上较国内发展较快,一些国家开发了法律专家系统、司法裁量模型并用于司法实践,为法官、检察官等办案提供指引或参考。其中,比较知名的是美国一些州使用的“风险评估工具”(COMPAS)。这一工具也引起了美国学界广泛的讨论。值得注意的是,一些域外法官开始尝试使用ChatGPT来辅助裁判。
可以看出,在LLM型生成式人工智能爆发之前,无论是域内外都存在人工智能的司法应用,但是显而易见的是现有的人工智能的司法应用效果有限,只能进行一些弱人工智能辅助(甚至这样也是和市面的同类产品相比也是效果欠佳),类似于Q&A式检索或者说智能辅助,则是几乎不存在的。LLM型生成式人工智能的出现,则带来了一种新的方式,可以预见其会给现在的智慧法院建设指明新的方向。
(三)
为什么需要LLM型生成式人工智能
首先,《人工智能意见》强调人民法院在建设智慧法院时要不断拓宽人工智能司法应用场景和范围。通过上文的介绍,LLM型生成式人工智能作为最新阶段的人工智能成果,且可预见的是其会在将来一段时间变得更加强大,更具有操作性。在强调建设智慧法院时,不能对新的发展视而不见。而且国内的智慧法院建设本身就处于世界前列,积极回馈LLM型生成式人工智能也是必然的,通过积极适用LLM型生成式人工智能改善人工智能的实际司法应用,也能保持自身在人工智能的前沿。
其次,LLM型生成式人工智能可以有效地提升现在法院的NLP人工智能应用。上文提到,现在法院NLP人工智能运用,模型较为落后,实际效果并不理想。LLM型生成式人工智能的运用能够缓解这一现象,通过迭代模型,即使在数据源不充分的情况下,也能进一步前进。这样也能够有效地建设智慧法院。实践上看,相比于现在,LLM型生成式人工智能可以帮助法官快速、准确地了解案情,节省了大量时间和精力。也可以从大量的案例中提取出有价值的信息,为法官的判决提供参考,提高了判决的准确性和公正性。
最后,LLM型生成式人工智能的新开发,可以有效缓解法官对于人工智能的担心。有学者提出,现阶段人工智能的发展模式正处于边研发边应用,边应用边改进,边改进边推广的阶段,而法官等司法人员对人工智能的错误认识,不利于提高法官等司法人员办理案件的准确性,不利于人工智能在法院等司法领域的发展与完善。LLM型生成式人工智能现阶段虽然并不是十全十美,但其已经有一定的初步效果,且随着互联网的宣传,法官对于LLM型生成式人工智能的认知虽然依然陌生,但其并没有产生很大的负面情绪。因此,加强LLM型生成式人工智能的应用,能够破除法官对于人工智能的担心,也能使智慧法院建设更富有成果。
综上,LLM型生成式人工智能和“形式法治”的法律三段论几乎完美匹配,其很适用于法律的垂直领域运用,同时LLM型生成式人工智能对于现今的智慧法院建设有很强的助推力,LLM型生成式人工智能在智慧法院应用的必要性不言而喻。
二、LLM型生成式人工智能在法院的应用探索
(一)
现有的法律LLM型生成式人工智能的应用
因为现有法院应用中暂无LLM型生成式人工智能的存在,因此笔者将会介绍现有的法律LLM型生成式人工智能,一方面这也是给将来智慧法院建设中如何采用LLM型生成式人工智能做前哨站,另一方面通过现有的法律LLM型生成式人工智能,其实也解答了上文关于为什么需要LLM型生成式人工智能的问题,因为市场给出了最佳的答案。
现有的法律LLM型生成式人工智能的应用可以分为两种类型,一种是利用已有模型的接口,直接调用API,然后自己在进行微调,例如适用langchain或者Supabase技术,再进行本地的部署。现有的类型就是北大法宝的AI或者是AI法律助手。此类其实和ChatGPT并无过多区别,因此不再过度描述。另一类则是自己利用开源模型自己进行预训练,现在常见的为PowerLawGLM、lawyer-llama、ChatLaw和LawGPT。此类可以算作是垂直领域下的法律LLM型生成式人工智能,而且上述皆为开源模型下的再次运用,且大部分并非直接商用而是实验室作品。
以LawGPT为例,LawGPT系列模型的训练过程分为两个阶段:第一阶段:扩充法律领域词表,在大规模法律文书及法典数据上预训练已经开源的模型,第二阶段:构造法律领域对话问答数据集,在预训练模型基础上指令精调。其实这和上文提到的LLM型生成式人工智能关键词是一样的。其数据来源官方数据中国检查网、中国裁判文书网、司法部国家司法考试中心、国家法律法规数据库、法律技术竞赛数据还有法律问答数据等。以ChatLaw为例,其数据主要由论坛、新闻、法条、司法解释、法律咨询、法考题、判决文书组成,随后经过清洗、数据增强等来构造对话数据。
不难看出,这里其实也是和上文提到的关键词一样。笔者在这里介绍现有的法律LLM型生成式人工智能的应用,一方面也是对于智慧法院的建设有着作用,另一方面其实也是再次介绍了LLM型生成式人工智能的应用的运行逻辑,其本身和法律三段论有着密切的相关性,是可以较好地适用于法律垂直领域。同样,介绍完现有法律LLM型生成式人工智能,似乎之前提到的一些人工智能司法应用的问题有了更实际的解决方向,这一点笔者也会在下文进行回应。
上述的法律LLM型生成式人工智能都是在这近半年内出现的,可以看出法律LLM型生成式人工智能是一个热点方向,因此智慧法院的建设也需要法律LLM型生成式人工智能。那么其在法院实际落地应用的可操作性有多大,其未来应用的方向又是如何?下文将进行解答。
(二)
智慧法院应用的现实落地和未来探索
上文已经提到了,LLM型生成式人工智能是NLP的新阶段,其能够有效提升现阶段的NLP应用,同时对于非NLP类型,其不具有提升效果,强行套概念只会适得其反,而且这是一种实务和理论脱节的表现。笔者认为有以下场景可以适用LLM型生成式人工智能:
场景1:法律检索,辅助法官办案。笔者认为现阶段较为成熟的应用就是,向其咨询法律内容,省掉人工检索的时间,这一方面的运用,笔者认为可以尽快实现。从实际操作来看,以ChatGPT为例,其在中文语料较为匮乏的情况下,还是基本给出了解释。因此这一方面运用可以预测到,且实际效果并不很差。
而以ChatLaw为例,其基本上也能够回答相应的法条检索问题。当然,法律检索最大的问题是确保数据的可信性,就上述结果而言,虽然基本可用,但对于实践来说,地方性的规定并没有收录,并没有很好地解决基层法院的痛点,但是相比于现在机械式的人工检索或者大数据检索,效果已经显著。不过现在较为缺少的是,对于具体法律文书的检索还没有实现的可能性,这一点也是LLM型生成式人工智能在法律垂直领域所需要努力的方向。
进一步的构想,即LLM型生成式人工智能推测裁判结果,与现在的量刑模型之类的运用相似,表现为将案件涉及的法律法规、司法解释、裁判案例,法律事实和证据材料输入,然后其得出相应的裁判结果。这种运用明显专业性强、复杂度高、效果上看其确实辅助法官快速裁判,提高法官的法律运用能力,但是笔者认为现在即使还难以有模型能够实际运作,但这可以作为未来的发展方向。当然,关于这一点的未来运用的可能性,其实很多学者早已进行过讨论,其涉及到的问题有多种,例如数据安全、算法问题还有是否能替代法官,如果未来要进行落地运用,也必须要先解决这些问题。
场景2:前置AI诉讼咨询。前置AI诉讼咨询能够有效解决现在法院立案窗口的工作效率问题,避免法官变为纯粹的法律咨询人士,也起到了一定的普法作用。笔者在上文提到了,其实现阶段有一些类似的运用,但效果仅限于呈现法条和告知如何诉讼,回答效果一般,只是单纯的“喂资料”。通过LLM型生成式人工智能的运用,可以有效地回答当事人的问题,同时还能根据当事人提供的事实对诉讼进行评估,为当事人提供法律知识和诉讼风险分析,并给出适当的解决建议。当事人只需要通过简单的咨询,就可以获取到自己想要的结果,从而让诉讼变得便捷、高效,切实减少当事人的诉累。这种运用可以放置在法院立案窗口、法院微信公众号,以及12368,这在一定程度上解放了大量人工,同时还能解决当前诉讼多的问题。从实际来看,ChatGPT初步能够有效回答问题,笔者认为这也是近期可以落地的场景。
以ChatLaw为例,其基本上也能够回答相应的法律咨询问题,包括但不限于法律问题咨询、司法考试咨询等等。需要明确的是,在智慧法院进行布置时,前置AI诉讼只是对于当事人的参考,不能用于正式程序中,否则法院会被前置AI所挟持。前置AI诉讼咨询是现今LLM型生成式人工智能能够快速落地实操的一个方向,笔者认为这可以作为LLM型生成式人工智能的智慧法院实验的主攻方向。
场景3:法律文书辅助。LLM型生成式人工智能近期比较现实的是加强文书修改能力。现今法院的文书修改还比较落后,LLM型生成式人工智能可以有效解决这一问题。在这一点上,ChatGPT已成为当今文字润色修改的主流方向。当然,最值得关注的是,LLM型生成式人工智能可否直接生成文书。笔者认为,对于一些程序性文书,例如简易程序决定书等,或者内容简单的裁定书,还有类似于刑事案件中的速裁程序内容固定化的判决书,现阶段可以尝试LLM型生成式人工智能,将司法工作人员从繁重枯燥的程序中解放出来,也能更好地关注审判本身。对于复杂的文书,笔者认为还是需要进一步训练,从实践来看,ChatGPT只能给一个很抽象的框架,不具备现实意义。当然随着人工智能应用的更新迭代,其内容的成熟度和精准度必将不断提升,更接近专业的法官。但是是否能够替代法官还有很多的疑虑。
三、LLM型生成式人工智能的应用问题的现实回应
LLM型生成式人工智能是人工智能的一种新的方向,其大踏步地进步将一些人工智能的问题真正的摆在了法律人的面前,以前的“科幻幻想”,可能就要实现。不过正如笔者提到的,我国学术界对于人工智能在司法应用的理论讨论是完善的,例如数据安全和算法问题,学者们都已经进行了详细的讨论。回到标题,笔者强调“现实回应”其实是针对LLM型生成式人工智能的关键词和现有的《人工智能意见》进行分析,对于一些佶屈聱牙的超前理论问题,有众多学者已经进行详细研究。LLM型生成式人工智能的出现是把一些之前讨论的问题放大。但是这些问题,并不能阻止LLM型生成式人工智能在智能法院建设应用。笔者认为,只要进行有效的限制,LLM型生成式人工智能还是利大于弊。有趣的是,笔者在咨询ChatGPT其在中国法院运用的缺点时,其也给出了答案:ChatGPT所得出的结论可能受到训练数据偏差的影响,存在误判的风险。ChatGPT无法考虑案情中的具体细节和背景,有时会忽略重要的信息。ChatGPT目前还不能完全代替人类法官,有些判断需要人类的智慧和经验。
(一)
数据问题取决于谁来控制
首先,所有人工智能绕不开数据安全问题,对于数据安全问题,笔者认为法院肯定要比其他行业更看重数据安全,但LLM型生成式人工智能需要处理极其大量的敏感数据,如法律文件、案例、用户信息等,可能远超现在的数据量。如果没有进行足够的数据安全保护,可能会导致信息泄露或被恶意利用。其实《人工智能意见》中也明确提到了安全合法原则。因此,对于安全问题,把好安全关的前提下,可以使用LLM型生成式人工智能。但是实际上仔细思考的话,数据安全问题着重点其实是在法院审理阶段的当事人信息保护问题,尤其是刑事案卷的卷宗安全。其他数据其实是公开的,上文提到的一些市面上法律LLM型生成式人工智能的应用所使用的数据也都是网络上公开的数据,因此这也不存在数据安全问题。LLM型生成式人工智能的数据安全问题,其实着重于法院阶段的数据,而谁生成谁来管理可能是最好的解决方式。既然如此担心数据安全问题,不外包可能是最好的方式,而且法院管理数据也可以有效解决数据的另一个问题,即数据本身是否正确。如果是错误的数据输入,那无论怎么样都会是错误的数据。而且,不可否认的是,其他科技公司或多或少都是缺少数据的,要论谁的司法数据最全,那非法院本身莫属。此外,数据问题还有一个基础问题就是模型的选择问题。而且无论是选择现有的模型,还是日后会有新的模型,本身都是需要使用外部的资源,这也不可避免地存在安全问题。笔者认为,此时选择开源的国内数据模型较为妥当。
笔者认为,智慧法院的建设本身就应该是法院在主导,其他技术支持也是需要在法院的指导下,如此不仅能解决数据问题,也能主导接下来的实际应用。而且笔者上文介绍的现有的法律LLM型生成式人工智能的应用也有很多是大学实验室进行的项目,没有必要对所有的人工智能应用都有一种畏难情绪,专业的归专业,但不代表就完全撒手不管。
(二)
算法问题取决于如何使用
关于人工智能的算法问题,正如笔者上文多次提及的,很多学者对此进行了讨论,常见的问题就是算法歧视问题和算法黑箱问题。
正如笔者在上一段提到的法院主导模式,如果法院主导LLM型生成式人工智能的应用,那么算法歧视问题和算法黑箱问题就可以得到有效地控制,法院主动参与算法的制定就可以消除算法的不利因素。
其实,笔者在上文已经介绍了一些LLM型生成式人工智能的应用的运作图,不难看出预训练阶段的原理并不复杂,尤其是模型开源的情形下,并不存在所谓的算法黑箱问题,以embedding技术而言,其实际上是对于数据的拆分整合,如果在开源的情况下,实际上是可以预测输入结果的。这也符合《人工智能意见》中关于透明性的规定。
现在LLM型生成式人工智能的算法问题集中于微调阶段,因此这一阶段完全是依靠人的参与,而有人的参与,就会有上述提到的算法歧视和算法黑箱问题。笔者认为,较为妥当的解决方式是法院主导算法的过程,配置相关人员参与算法计算的过程中。
实际上,在《人工智能意见》已经明确辅助审判原则的前提下,审判过程的算法问题其实是一个伪问题,因为最终决策者在法官手上,算法的歧视和黑箱问题,最终落脚点实际上是会回到法官的职业伦理上,很难称之为算法问题。因为“机器人法官”已经不可能存在了,因此在最高院已经确定原则的前提下,只要坚持原则,人工智能的运用并没有风险。不过笔者在前文提到一个问题,就是在做前置AI咨询时候,算法问题会比较突出,一方面通过上述手段可以进行有效的处理,另一方面,通过开源数据模型,保证可预测性也可以缓解前置AI咨询的风险,做到真正地让法律咨询走进寻常百姓。
(三)
公平正义是底线
公平正义是司法的底线。在《人工智能意见》已经明确辅助审判原则的前提下,如何通过LLM型生成式人工智能保障公平正义就是最为关键的方向。
回顾到现在,本文的焦点都是集中于法院的运用上,而且确实LLM型生成式人工智能能够有效地推动智慧法院的建设,但是问题是在法院运用这些先进的人工智能时,其他诉讼参与人如何选择呢?按照笔者之前的说法,现有市面上已经出现了很多法律LLM型生成式人工智能,诉讼参与人完全可以选择。但现实情况是法院的数据源是最全的,其他市场化的模型肯定达不到这个级别,同时既然是市场化,不一定所有诉讼参与人都有钱去购买,更不要说刑事诉讼的被告人,这一点欧美国家的学者也提出了这明显违反“平等武装”原则(Equality of Arms)。这是一个确实存在的问题,有违公平正义原则。有一种方法是开源模型,让所有诉讼参与人都能使用,这确实是能够解决问题,但问题是开源所有资料,只会让法院失去对LLM型生成式人工智能的掌控,当诉讼参与人拿着人工智能生成的结果来进行答辩时,法院明显处于被动地位。而且在明确了辅助审判原则的前提下,其实就是为了避免LLM型生成式人工智能的缺陷,如果开源使用,只会让缺陷再次暴露。
因此,笔者认为解决问题的最好方式是让法官明确运用LLM型生成式人工智能的场景和结果,即运用这一过程需要对外展示。上文笔者提到了域外近期的一些LLM型生成式人工智能运用,这些法官都明确表示只是辅助,即使不在判决书中单独载明,也会明确表示其会告知当事人自己使用了LLM型生成式人工智能。笔者认为,如果LLM型生成式人工智能大规模在法院运用,承办法官应在告知各方当事人自己其可能会使用LLM型生成式人工智能进行辅助判决。笔者在这里强调的是这种辅助判决,并非查资料,如果只是单纯的查资料,并不需要对诉讼参与人进行释明。而如果是法官通过LLM型生成式人工智进行了一些审判辅助判断,并且承办法官采用这个辅助判断结果。笔者认为承办法官应在判决书中表现自己为何采用LLM型生成式人工智能提供的审判辅助结果,不能因为适用人工智能,而荒废司法正义。此外,对于诉讼参与人而言,其也可以向法庭申请使用LLM型生成式人工智能。总的而言,LLM型生成式人工智能在法院审判实践过程中的运用需要坚持全流程公开的原则,只有这样才能消除民众对于LLM型生成式人工智能的疑惑,也让司法更加公平正义。
结语
随着智慧法院4.0的发展,人工智能将全面赋能法院各业务环节,当前的一些运用仅仅是发挥人工智能技术在法院应用的冰山一角,随着LLM型生成式人工智能的发展,越来越多成熟的人工智能产品将服务于法院,全面深化智慧法院建设,提升司法审判效率,实现更高水平的数字正义也是应有之义。
往期精彩回顾
倪子涵|三权分置路径下生成式人工智能企业数据合规新解
郑森|论AIGC生成歌曲的著作权法规制
杨子安|ChatGPT类人工智能生成物的刑法保护
唐绮柔|人工智能生成物著作权问题研究
周劲黎|人工智能生成内容的可版权性及默认权属分配——兼论判断作品独创性的选择概率标准
赵国庆|论虚拟数字人技术下生成内容的著作权法规制
上海市法学会官网
http://www.sls.org.cn
特别提示:本信息由相关用户自行提供,真实性未证实,仅供参考。请谨慎采用,风险自负。
0 条相关评论
相关最新动态
推荐最新动态
点击排行