查看原文
其他

何扬阳 | 自动化行政的裁量困境与解决路径

要目

0  引言

1  自动化行政的运行机理及模式划分

2  自动化行政的裁量困境

3  模糊逻辑理论:支撑行政裁量自动化

4  结论


摘要:行政裁量自动化是行政裁量与人工智能相结合的产物,也是顺应智慧政府建设的必然趋势。但由于计算机程序算法的确定性特征,在编程中不允许存在二义性,特别是法条中俯拾皆是的“不确定法律概念”带来的模糊性,给行政裁量的自动化造成困难,很多学者因此认为,行政自动化系统不能处理裁量问题。事实上,模糊逻辑理论是人类处理这一问题的有力工具,将其引入自动化系统可以突破传统二值逻辑的束缚,并为运用模糊产生式规则处理行政裁量问题奠定坚实的基础。

关键词:自动化行政;行政裁量自动化;模糊逻辑;模糊性


0 引言

当人工智能引领的第四次工业革命来袭,行政行为与自动化的结合成为必然趋势。自动化行政在实践中得到了广泛运用并展示出诸多优势。然而,随着“顶格罚款”之类裁量不当案例的出现,很多学者认为,行政自动化系统不能处理裁量问题。早在2007年,时任马里兰大学法学教授希特伦就曾对行政裁量自动化持否定态度,明确表示“那些明确或含蓄地要求行政主体行使自由裁量权的事项不能被自动化”。牛津大学副教授鲁本同样宣称:“算法决策通常被认为不能行使自由裁量权,因为在确定性系统中没有回旋的余地”。在我国,亦有部分学者持类似意见,认为“行政裁量存在封闭性的趋势”。这些担心的出发点可以理解,但总体而言与事实并不相符。他们将自动化裁量置于一个狭隘的框架内考虑,忽视了现行技术的支撑能力,对行政自动化系统给出了悲观的定位,主张裁量问题是自动化决策系统的短板,应当大幅减少其适用范围,因为行政行为中羁束行政所占比例甚少,绝大多数都是裁量行政。因而,澄清这一问题不仅直接关系到行政自动化系统的可适用范围,也关系到其未来的发展前途。

1 自动化行政的运行机理及模式划分

1.1 自动化行政的运行机理


自动化行政是行政与技术的耦合,通过使用自动化系统来取代或辅助人工判断,从而标准化和规范化政府决策的过程。其运作机理可划分为三个环节:规则构建、信息输入、结果输出,如图1所示。


图1 自动化行政的运行原理


规则构建为自动化行政提供了基本的运行逻辑,是最为关键的一环。在实践中,支撑自动化行政的技术路径具有多样性,不同技术的规则构建方式有所差别。基于规则推理的专家系统是由知识工程师在法律专家的协助下完成构建的,其核心是搭建知识库和推理机。知识工程师对法律专家的经验知识进行提炼,形成计算机可理解的“if-then”规则,使自动化系统具备与人类专家相称的性能。基于案例推理的专家系统构建核心是构造案例库,从案例中归纳出支持索引和相关性评估的方法。基于机器学习等算法的自动化系统使用训练数据建立模拟人脑思考的函数经验模型,将法律规范与案件事实之间的对应关系进行函数拟合,形成决策系统的推理规则。


自动化行政运行的第二个环节是信息输入。为了获取尽可能充足的信息与数据,需要通过人工或自动识别等方式将有待决策的行政事实转化为初始识别信息,并将获取的信息输入至计算机系统内等待处理。随后自动化系统对初始信息进行分析、对比,以便系统能够根据设定的规则自动判断、筛选和处理相关申请。例如,沈阳市和平区政府启用智能引领式服务机器人优化提升政务服务,行政相对人在办理审批业务时,首先需通过刷录身份证件或者点击、扫描屏幕二维码的方式将办理事项所需资料上传至系统内,自动化系统才能从后台自动检索行政相对人上传的信息和资料是否符合“秒批”事项清单。


最后,在结果输出环节,系统依据构建好的运行规则对输入信息进行运算处理,产生联系并做出合理的决策,给出具体可操作的决策结果。这些结果包括批准、驳回、转交、处罚等。系统可以自动将结果输出到相关人员或部门进行后续处理,提高行政治理的效率和准确性。


1.2 自动化行政的模式划分


不同的行政事项及行政构架对行政自动化水平有着不同层级的要求。为了更好地满足实际需求,有必要对行政自动化模式做出划分。根据自动化决策有无裁量能力,可以将其划分为行政羁束自动化和行政裁量自动化。


(1)行政羁束自动化


行政羁束自动化是指行政主体事先根据行政行为的要求及流程设置自动化程序,当行政主体或行政相对人的行为触发该系统程序时,行政系统将待决事实与自有或共享的数据库进行自动比对,根据构建好的规则进行分析处理并做出决策结果。在系统运行过程中,其所依据的法律规范在构成要件部分是清晰明确的、不存在不确定法律概念,在法律效果部分行政主体也没有自由选择和裁量的余地。这些法律规范可以被相对轻松准确地提炼为“if-then”规则,由自动化系统识别并运行。


此种模式下,由于自动化系统在规则构建环节中预先决定了一系列确定的决策结果,系统只需要准确地识别出不同类型的法律事实,根据一一对应的关系应用规则执行推理,然后输出结果即可。为了得到尽可能准确、标准的决策结果,行政羁束自动化在经典二值逻辑的指导下设计、构成与运作。换言之,行政羁束自动化基于具体的法律规范和相关规定,采用“是”或“否”的判断方式给出明确的决策结果。典型的例子为各种“秒批”服务,如申领社保津贴、企业投资备案、异地就医备案等。


(2)行政裁量自动化


在现实生活中,行政行为所依据的规则具体化程度较高、决策过程简单的情况毕竟有限,更多的情况是,行政行为涉及的事实相当复杂,所对应的法律规范在构成要件、法律效果部分比较模糊,需要进行行政裁量。在此情况下,羁束行政的自动化模式就无法应对复杂问题带来的挑战,需要行政自动化系统像人类一样行使裁量权。


裁量行政自动化要求计算机能够根据具体情况对待解问题进行分析、权衡,给出裁量后的判断结果。与前述羁束行政的自动化模式仅需要运用经典二值逻辑将事实与规则进行简单匹配即可得出决策结果不同,裁量行政自动化面对的是在规范和事实方面具有模糊性的行政行为,决策主体需要根据具体情形作出“订制”的结果。在这种情况下, 0/1二元判断下的传统逻辑就无法处理“模糊性”导致的不确定性。这也意味着,继续以经典二值逻辑作为裁量自动化的指导思维是不可行的。

2 自动化行政的裁量困境

行政裁量自动化的本质是将人类行政裁量的经验和知识转化为计算机程序和算法,从而实现智能化的决策。这种转化是将人类的裁量过程进行形式化和抽象化的结果。因此,在一定程度上,自动化行政的裁量困境是人类执法过程中的裁量困境在计算机系统上的映射。对人类行政裁量进行分析,有助于更好地理解和把握自动化行政的裁量困境。


2.1 人类行政裁量的困境剖析


日本战后最著名的行政法学者田中二郎博士曾指出,行政的精髓在于裁量。这意味着,作为行政法上最为基本的概念范畴,裁量本身是行政行为、行政指导、行政计划乃至委任立法等各个过程中皆不可或缺的一种行为方式、方法或形态,因而也是最难以把握的问题之一。需要肯定的是,难以把握并不意味着无法做到,而是需要执法者耗费更多的精力重点关注。根据牛津大学社会法律研究中心主任丹尼斯·加利根教授提出的裁量分析模型来看, 形成一个裁量决定有三个主要环节:查明事实、确定标准以及将标准运用于事实。该理论对行政裁量的内部结构进行拆解,有助于进一步分析人类裁量困境的根本原因。


首先,查明事实是一个信息交互的过程。在这个过程中,执法人员需要将可见信息归入到特定的概念和分类中。但是,客观存在的界限不分明以及人类认知的局限性决定了查明事实本质上是一个模糊的过程。一方面,在现实生活中模糊性作为事物的基本特征广泛存在,是常规现象而非例外情形。这一点在时间或空间的边缘区域表现得尤为强烈,例如瓜果初熟时的青黄相接和人类体型的高矮胖瘦等。另一方面,查明事实是执法者对已经发生的事件进行最大程度的还原,实际上是人的主观认知过程,是证明主体运用经验和逻辑对证据客体的反映。但是受制于认知能力的局限性,人们只能通过认识感性表征的间接方法观察客观对象,无法获得对“物自身”的根本认识。


其次,确定标准的过程是寻找事实对应的法律规范,并对规范进行判断和解释的过程。在这个过程中,执法者同样需要面对大量的模糊性问题。凡触及行政裁量的法律规范,大抵可以区分为两类:一类对行政行为的内容、方式和程序等事项做出范围性规定,允许行政主体在法定范围内选择处理方式和处理内容;另一类仅对相关问题进行原则性指导,允许行政主体自主采取相应措施,给与其更大的裁量空间。此二类法律规范均充斥着大量的不确定概念及模糊表述。事实上,为了支撑法律平滑和有效囊括复杂的生活状态,法律语言常常必须模糊。模糊性给法律制度的发展留下了空间,使得法律可能通过试错来成长;同时也为执法者应对个案情况预留了必要的调整和修改空间。在一定程度上,法律规范中的模糊性赋予了执法者更多的权力,也加大了执法者对其进行恰当正确的解释和评估的困难。


最后,将标准运用于事实环节是建立在一定客观基础上的主观选择。这个过程根源于执法者对证据、事实等内在特征的有限认识,对法律规范等标准的有限理解,是人类直面模糊问题思考应对方式的重要阶段。如果运用不当,会产生不合理的裁量结果,裁量结果最终或被确认违法、或被认定无效撤销、或被判决变更。


综上,人类的行政裁量之所以难以把握,其根源在于“模糊性”。在查明事实的过程中,所涉及的概念和分类往往是模糊的,从证据中推断事实真相也会存在多种可能性和不确定性。同样,在确定标准并适用标准时,模糊性也使得执法者在决策时面临着诸多挑战。


2.2 裁量困境在自动化行政场景下的表现


当行政裁量与自动化相结合,模糊性对人类裁量提出的挑战在自动化行政场景下出现新的形式。与人类裁量问题中模糊性存在的领域相对应,行政裁量自动化中的模糊性集中反映在规则构建与信息输入环节。在规则构建环节,法律规范中存在的不确定法律概念(模糊概念)带来了自然语言向计算机语言转换的困难;在信息输入环节,初始事实信息中存在模糊性造成了有效信息甄别的难题。


2.2.1 规则构建环节:法律文本的语言转换困境


规则构建在行政裁量自动化系统运行中举足轻重。一个完备详尽的决策知识库是行政机关依法行使自由裁量权的基础。行政裁量决策知识库包含裁量基准库、裁量对象信息库、规范文书库和历史裁量库、法律法规库等。将上述法律文本由自然语言转换为计算机语言并输入储存至系统内,是后续决策实现的关键一步。但是法律文本中大量存在的不确定法律概念(模糊概念),成为了自然语言向计算机语言转换的障碍。


正如奥地利哲学家考夫曼和苏格兰法哲学家麦考密克指出的“法学其实不过是一门法律语言学”,人们需要并且期望语言可以将法律的全部内涵精准而明确的表述出来,但理想并不能总是如愿。行政法作为与日常生活联系最为紧密的部门法之一,尤其在涉及裁量问题时,其规范中存在的模糊表述和不确定法律概念俯拾皆是,诸如《行政处罚法》第49条:“发生重大传染病疫情等突发事件,为了控制、减轻和消除突发事件引起的社会危害,行政机关对违反突发事件应对措施的行为,依法快速、从重处罚。”短短六十多字的条文中,充斥着“重大”“减轻”“快速”“从重处罚”等一系列模糊语词。再如《食品安全法》第124条第1款第4项:“生产经营腐败变质、油脂酸败、霉变生虫、污秽不洁、混有异物、掺假掺杂或者感官性状异常的食品、食品添加剂”,其中也不乏存在“污秽不洁”“感官性状异常”等模糊语词表述。


美国语言学家布龙菲尔德指出:“一个词是一个最小的自由形式。”如果将一个完整的法律条文看作一项最大自由形式,该条文中各个词语是具有独立意义的最小拆分形式,是人们对法律条文内容进行认知的起点。若要确保计算机具备适用法律的基础能力,使其可以对法律条文进行正确“认识”,将带有模糊词语的法律规范转译为相应代码,并通过编译操作使之成为计算机可执行的二进制指令成为关键。


2.2.2 信息输入环节:初始事实的信息甄别难题


裁量自动化系统完成规则构建进入到个案应用时,首先要经过信息输入环节。信息输入环节可以进一步拆解为:获取初始案件信息和信息甄别。首先,需要将案件发生时的全部信息汇总形成初始信息并输入裁量自动化系统内。此时,现实情况的复杂多样决定了未经处理的初始案件信息必然是庞杂、无序、模糊不清的。其次,为了保障裁量自动化的正确运行,必须要对初始信息进行整合、甄别、去粗取精、去伪存真,使其转向简要、有序、清晰可用。


初始案件信息可以依靠人工或机器获取。无论选取何种方式,获取主体均不能亲历发生在过去的事件。因此,获取本质上是借助“证据之镜”对历史事件进行重构,在此过程中初始信息不可避免地存在着模糊性。信息甄别要求行政主体理解复杂纷繁的事实情况,判断出一个场景包含的信息中哪些事实与决策关联程度较高且应当考虑、哪些无效或应予排除。在此基础上,将复杂模糊的生活事实与相关法律规范的要求进行关联,抽取出真实、有效、相关联的部分,剔除掉冗余、矛盾、有偏差的部分。在传统的人工行政场景下,事实甄别往往结合了行政主体的情感、记忆、教育背景以及在实践过程中积累的对法律要求的感知,其合理程度受个人的法律素养和社会的法律文化综合决定。行政裁量自动化场景下,计算机承担起完成以上处理过程的重担。但是,相较于其优秀的计算测量能力,计算机在感知能力的表现较为逊色。诸如著名的“董明珠闯红灯事件”,2018年宁波自动化人脸识别执法系统错误地将一辆公交车上的照片识别为董明珠女士,并认定其实施了闯红灯的违法行为。又如疫情期间各地频发的“健康码错误赋红事件”,多地居民反映其在未经过疫区、未接触新冠患者也未出现新冠症状的情况下,被健康码系统错误地赋予了红码。还有最新的“谷歌版ChatGPT演示翻车事件”,2023年2月6日美国科技公司谷歌宣布推出人工智能聊天机器人巴德,与当下流行的ChatGPT展开竞争,并且于2天后公开演示巴德的新功能。在演示过程中,巴德错误地将欧洲南方天文台甚大望远镜(VLT)于2004年拍摄的太阳系外行星的第一批照片认定为由詹姆斯韦伯望远镜拍摄。


可见,模糊不清、复杂多样的初始信息给裁量自动化在信息输入环节带来了事实甄别和有效信息选择的困难。为保障自动化系统能够做出合理裁量,要求其具备在模糊信息中抓取有效事物特征的能力。

3 模糊逻辑理论:支撑行政裁量自动化

人类具备在不精确、不完备的环境中交流、推理和做出合理决策的能力,因而能够较好地处理广泛存在的模糊性问题。模糊逻辑作为对人类此种能力的一种形式化尝试,是突破自动化决策模糊困境的一柄利刃。因此在面对存在大量模糊问题的行政裁量时应转换思维,以模糊逻辑重构裁量问题,将人类处理复杂、模糊、不精确问题的能力“迁移”至计算机智能决策系统内。


自20世纪20年代,英国著名哲学家和数学家罗素在《社会改造原理》一书中首次提到模糊性,再到美国加州大学的扎德教授在1965年发表了著名的论文《模糊集》为模糊逻辑理论揭开序幕。直至今日,模糊逻辑理论历经数十年发展在不同领域内被进一步挖掘、演化及应用,包括但不限于图像分割、非线性系统控制、网络系统安全等。事实证明模糊逻辑理论因其较强的包容性与科学性,得以在各个领域内进化,为各学科关键问题提供了更好的解决方案。本文将模糊逻辑理论引入裁量问题,在结合二者特征的基础上提出了应对自动化行政裁量困境的新思路(如图2所示)。


3.1 以模糊逻辑理论破解规则转换困境


法律文本中大量存在的模糊概念给规则构建环节带来困难。人类通过自然语言表达形成法律文本,计算机通过建模语言构建裁量规则。自然语言到建模语言需要经过恰当的转换处理,不确定法律概念(模糊概念)成为横架在二者间的阻碍。破解转换难题的关键是:首先,给予模糊概念恰当合适的定义。为了达到这一目的,有必要适当让渡精确性,以自然语言或人工语言的字句代替数值成为变量,即以语言变量取代或者辅助数值变量。其次,以模糊产生式规则刻画变量间的关系。


图2 以模糊逻辑理论应对裁量困境的解决路径


3.1.1 以语言变量取代或者辅助数值变量


根据法律文本中变量的特征和具体场景,选择合适的语言变量,并为每个语言变量设计好隶属度函数,是实现规则构建语言转换的第一步。


语言变量是一种用自然语言中的词语或短语来描述的变量,例如“高、中、低”“大、中、小”等。其可以提供一种近似的表征方法,将法律规范中那些复杂、模糊、非明晰的定义或概念用简单或者较少的概念进行重新定义或表示。语言变量通常与模糊集合相关联,模糊集合中的元素表示了语言变量的隶属度或程度。例如,当评价一个人的“年龄”时,标签“年轻”可以被认为是变量“年龄”的语言值。语言变量的值的总和构成了它的术语集,加上“很、不、非常”等语言算子的共同作用,原则上一个术语集内可以有无限多的元素,诸如“年轻、很年轻、不是很年轻、中年、年老、非常年老……”。其中,“年轻”可以表示为一个模糊集合,其中包含了所有年龄的可能取值,而每个具体的年龄都对应一个隶属度值,表示其与“年轻”的符合程度。语言变量的值“年轻”虽然不如具体的年龄数值如“25”更加精确,但是前者能够蕴含并体现出评价者多方位的感受,更佳利于相互沟通。


具体而言,确定模糊语言变量的步骤如下:首先,将带有模糊概念的法律文本拆解为语词集合,其中包含精确语词和模糊语词;其次,将模糊语词分别作为合成问题Q,并将合成问题拆分为更低层级上的子问题Q1、Q2、Q3、…、Qn;最后,确定给定对象在各个原子问题中的隶属度并且给出子问题之间的关系表达式,确定语言变量及其模糊集合。


以前文提及的《行政处罚法》第49条为例,首先需要对条款规定中的模糊概念进行表示,将“重大传染病”作为一个合成问题,则“致死率”“病毒毒性”“传播能力”可以作为拆分后的原子问题Q1、Q2及Q3。原子问题Q1、Q2及Q3的模糊集交集在模糊集合论的意义下用于定义合成问题Q,如式(1)所示:


重大传染病=Q1∩Q2∩Q3=致死率∩病毒毒性∩传播能力 (1)


其次,设定Q1、Q2、Q3及Q的回答集合为l、m、h(低、中、高),如式(2)所示:


A1=A2=A3=A=l+m+h (2)


并假设Q的关系如表1所示。最后,将表1所示的关系表转化为有效的分枝调查表,完成对“重大传染病”的定义。分枝调查表的构成需要结合对原子问题成本的计算结果进行设置,涉及的具体构建部分可由技术专家做出具体的可操作性转化,兹不赘述。


表1 重大传染病关系表


3.1.2 以模糊产生式规则刻画变量间的简单关系


在使用模糊语言变量对模糊概念进行表示后,仍需要将法律规范整体转换为计算机可以理解的规则,即用模糊产生式规则表示法律规则。模糊产生式规则的一般形式为:


IF(模糊条件)→THEN(模糊结论),CF置信度(0<cf≤1)< div="">


模糊产生式规则是用于描述模糊关系的条件语句。与传统的二值逻辑条件语句不同,模糊产生式规则的条件和结论都可以是模糊概念,可以更好地反映法律文本中的模糊性。它通常由三部分组成:模糊条件部分、关系运算符和模糊结论部分。模糊条件部分表示输入变量的状态或属性,通常是由一组语言变量组成,例如,在前述运用甘肃省环保处罚裁量系统时,考量的模糊条件包括“行为人的企业类型属于微型企业、违法行为严重、持续时间较长”。关系运算符用于描述输入变量与输出变量之间的关系,通常是一组模糊逻辑运算符,例如“如果……则”等。模糊结论部分表示输出变量的状态或属性,通常也是由一组语言变量组成,例如“处以警告、责令停产停业、暂扣许可证件、罚款一定金额”等。


以《行政处罚法》第49条的规则构建为例,说明模糊产生式规则的形成过程。全国人大常委会法工委行政法室处长张晓莹在全国人大常委会组织的新修订行政处罚法的集体采访中表示,适用该条款应从三个方面进行考虑:一是事件属于重大传染病等突发事件的程度;二是违反突发事件应对措施的情形,包括违反控制、封锁、划定警戒区、交通管制等控制措施的行为,也包括囤积居奇、哄抬物价、制假售假、哄抢财物、干扰破坏应急处置工作等扰乱市场秩序、社会秩序的行为;三是“从重处罚”应该与控制、减轻和消除突发事件引起的社会危害相匹配,在法定的处罚幅度内选择较重的处罚幅度。根据上述三方面要求,可以将模糊产生式规则的构建步骤总结为如下几步:


首先,确定该条款的模糊条件及模糊结论。本条款的模糊条件包括两个部分:(1)发生的事件是否属于、或者在多大程度上属于突发事件;(2)违反突发事件应对措施的情形是否严重。本条款的模糊结论是:行政机关对违反突发事件应对措施的行为从重处罚。


其次,分别对模糊条件赋予不同程度的真值,针对各种情况匹配不同程度的结论,如表2所示。


最后,将模糊产生式规则转化为计算机可识别的形式。通常采用模糊推理引擎来实现这一步。例如,可以使用模糊控制器将输入变量“重大传染病疫情等突发事件”和“违反突发事件应对措施的行为”映射到输出变量“处罚程度”,从而实现自动化裁量的规则构建。


表2 《行政处罚法》第49条的模糊产生式规则表


需要注意的是,在表达法律文本时,需要根据实际情况进行合理的抽象和概括,以保证模糊产生式规则的准确性和有效性。同时,也需要不断完善和调整模糊集合和隶属度函数,以适应实际应用中的各种情况。


3.2 以模糊逻辑理论破解信息甄别难题


现实情况的复杂多样、获取主体的不可亲历等原因,导致在信息输入环节获取的初始信息庞杂、无序、模糊不清。为保障行政裁量自动化顺畅运行,必须对初始信息进行甄别处理。信息甄别要求自动化系统具备以下能力:从初始文本中寻找出与待决案件相关联的重要信息、剔除无关信息,并将提取到的相关信息组合成逻辑紧凑连贯的内容。针对这一问题,模糊分类、模糊匹配可以有效提升自动化系统处理输入信息的能力。


3.2.1 以模糊分类实现信息预处理


在行政裁量自动化中,输入信息的准确性对后续处理结果至关重要。然而,经人工或自动化系统采集的初始信息往往包含模糊不清的部分,需要利用模糊分类对其预处理。模糊分类是指在模糊集合理论框架下对数据进行分类的过程。与传统的分类方法相比,模糊分类可以处理一些具有不确定性或模糊性的数据,例如某些属性的值可能不是唯一的或难以精确测量。模糊分类可以将数据集划分为多个模糊集合,并根据这些模糊集合的交叉程度将其归类成具有相似特征的类别,为后续的自动化处理提供有力支持。


在行政裁量自动化中,通过模糊分类可以将输入的庞杂信息初步归类,减少错误匹配的可能和无关信息的干扰。例如,将输入的涉及“食品安全”的文本归为“食品安全类别”,将输入的涉及“环境保护”的文本归为“环保类别”,提高行政裁量自动化的准确性和效率。


以交通违法类行政处罚为例,说明模糊分类如何对输入的模糊信息进行处理。首先,行政主体或行政自动化系统需要根据案情记录和相关证据材料,将违法行为的描述、违法时间、违法地点等相关文本输入到信息系统中。其次,自动化系统会根据文本中的关键词和语义信息,筛选出与违法行为相关的信息,例如“红灯”“驾驶机动车通过”“交通管理处罚”等。最后,对筛选出来的相关信息进行模糊量化处理,根据不同的关联程度,对信息进行打分和权重计算,例如将“违法行为”分为“直接违法行为”“间接违法行为”等不同的类别。


通过模糊分类的处理,可以将文本信息中的模糊性转化为可量化的信息,并进行相应的判断和决策。这种方式不仅提高了信息处理的准确性和效率,而且也可以帮助决策者更好地掌握实际情况,做出更明智的决策。


3.2.2 以模糊匹配进行信息再甄别


尽管模糊分类可以将输入的信息划分到不同的类别中,但是由于现实世界中存在大量复杂的情境和信息,计算机很难将所有的信息都准确地归类到某个固定的类别中。因此,模糊分类有时候也会存在误判或分类不准确的情况。为了弥补模糊分类的不足,需要模糊匹配对已经分类的信息进行再次匹配和比对,以便自动化系统更加准确地实现信息甄别。


模糊匹配是指通过比较两个或多个记录,计算出它们属于同一实体的可能性,找出与特定需求或主题相关信息的技术。例如,在食品安全领域,模糊分类将输入文本归为“食品安全类别”后,模糊匹配进一步对文本中与食品生产、经营、销售等方面相关的信息进行筛选甄别。在模糊产生式系统中,上述匹配并非是完全精确式匹配,而是蕴含着程度概念的匹配。通常模糊匹配会采用类似用“语义距离”的度量方式计算模糊数据对象间的差距,当匹配程度达到一定水平以后就算匹配成功,从而允许使用某条产生式规则。


模糊匹配通常可以从以下几方面对输入信息进行关键词和特征匹配,从而实现信息甄别:


其一,案件事实和法律规定的匹配。系统可以通过提取案情中的关键词和特征,匹配事实描述和相关法律规定。例如,在景磊诉成都市公安局交通管理局第四分局案中,自动化系统利用自然语言处理技术对“行为人驾驶案涉车辆未按照交通信号灯通行”进行解析,匹配相关法律规定,如《道路交通安全法》第26条、第90条等,判断驾驶行为是否违反交通管理规定。


其二,相关证据的匹配和分析。系统可以利用模糊匹配对案件相关证据进行分析和匹配,如交通警察的执法记录、当场口头告知违法行为、简易程序处罚决定书等。通过分析证据的内容和相关法律规定的要求,判断证据是否真实可靠。


其三,类案联系和类比推理。系统可以利用模糊匹配对类似案件进行比对和分析,通过类比推理确定相关信息的可能依据,框定处理范围。


通过模糊匹配,行政裁量自动化系统可以对输入的模糊信息进行全面深入的分析和处理,保障系统可以更加准确地分析、筛选和甄别案件事实,从而提高行政裁量的精度和效率。

4 结论

随着智能化时代的快速发展,行政自动化得到了前所未有的技术和政策的双重支持。裁量问题作为行政法中最广泛的存在,是自动化行政亟需解决的重要问题。然而,行政裁量过程中广泛存在的模糊性,不仅是人类执法者难以把握的根源,也是自动化行政向裁量自动化深入发展的桎梏。模糊逻辑打破了经典二值逻辑铸就的藩篱,是直面模糊问题有力工具。将模糊逻辑理论引入行政自动化领域,在一定程度上回应了自动化行政的裁量困境,为行政裁量自动化的解决路径提供理论支持。


事实上,在法律实践中人们一直在无意识地运用模糊逻辑及模糊推理。将模糊逻辑理论系统拓展到法律领域并用来指导法律实践仍处于探索初期,面临着许多困难。因此,更需要法律人与技术专家通力合作,将这种人们“自发的意识”转换为机器“自觉的行动”,以有效指导今后自动化行政的法律实践。


 本文来源与作者信息


  • 原文刊发于《网络安全与数据治理》2024年第3期。

  • 何扬阳(1994-),女,西安交通大学法学院硕士研究生,主要研究方向:计算法学、行政法学。

  • 因篇幅较长,已略去原文注释

继续滑动看下一个
清华大学智能法治研究院
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存