查看原文
其他

成果 | 袁康:社会监管理念下金融科技算法黑箱的制度因应

武大经济法 武大经济法 2023-01-13

武大经济法 与武汉共同战疫


点击“武大经济法”关注我们

社会监管理念下金融科技算法黑箱的制度因应

作者简介:袁康,法学博士,武汉大学法学院副教授,武汉大学网络治理研究院副院长。研究方向:金融法、网络法。

文章来源:原文发表于《华中科技大学学报》2020年第1期,感谢作者授权推送。



内容摘要:大数据、区块链和人工智能等底层技术为金融科技的发展提供了强大动力,但其技术实现过程中因算法的复杂性、不透明性和人为操纵所形成的“算法黑箱”,导致了金融科技在应用过程中巨大的欺诈风险。破解算法黑箱的核心要素在于解决算法的可靠性、透明性、可解释性及可问责性问题,通过树立社会监管理念,按照赋权和规范的双重路径,实现政府、市场投资者、第三方专业机构及算法开发者和运营者对算法决策的协同治理,是破解金融科技应用中算法黑箱的有效方案。

关键词:金融科技;算法黑箱;社会监管;欺诈风险



目录

一、金融科技运用中的算法黑箱及其法律风险

二、破解算法黑箱的核心要素 

三、社会监管理念及其破解算法黑箱的可能性

四、赋权与规范:社会监管力量参与的路径与制度

五、结论与对策 





在大数据、人工智能、区块链等技术创新蓬勃发展的驱动下,金融科技开始被寄予推动金融行业变革升级的厚望。量化交易、大数据征信、智能投顾等创新应用已经逐步投入实践,成为金融科技加速融入现代金融体系的重要标志,金融科技的创新应用也为中国金融行业实现弯道超车提供了有利契机。根据埃森哲的调查,2018年金融科技全球投资达到533亿美元,中国投资额同比增长近9倍,达到255亿美元,几乎达到2017年的全球投资总额。KPMG发布的2018金融科技100强榜单中,中国金融科技企业在前10强中占据4席。然而,在金融科技应用过程中,市场大都关注数字化、自动化和智能化所带来的效率提升结果,却忽略了大数据和人工智能技术所依赖的算法系统中的输入数据与输出结果之间存在着无法洞悉的“隐层”即所谓“黑箱”(black box)。“算法黑箱”在事实上遮蔽了数据处理和交易决策的运行过程。金融科技自身的创新价值和进步意义自不待言,但金融科技的算法黑箱所造成的透明度缺失会加剧信息不对称,容易为欺诈提供滋生的土壤。因此有效因应和破解金融科技应用的算法黑箱,是防范金融科技应用风险的重要前提。  

当前探讨本文相关主题的文献主要集中于两个层面:一是从金融和法律的视角对金融科技的监管问题进行宏观架构和顶层设计的研究,这些研究认识到金融科技带来的泛金融化、金融风险频发、金融体系内生和外生风险等问题需要以金融监管范式的转变予以回应,除了借鉴监管科技和监管沙箱等手段之外,引入多元主体、多元规范、多元机制的合作治理模式对金融监管进行适应性变革,避免过度依赖行政监管并且发挥社会力量的积极性和专业优势,也成为应对复杂的金融科技应用的可行方案。二是从技术的角度探讨算法黑箱的治理路径,对于算法的不可解释隐忧、自我强化困境与主体性难题予以高度关注,而金融科技中的算法交易的有效性和安全性也备受质疑。有学者提出要通过算法有效性测试、算法有限公开、算法备案等制度降低算法的透明度风险。而对于如何治理金融科技中的算法黑箱问题,虽有学者提出关切但并未形成有效的思路。

相比于以往研究,本文将视角聚焦于金融科技应用中算法黑箱这一具体问题,在分析金融科技中算法黑箱的生成机理和主要风险的基础上,厘清破解算法黑箱的核心要素,并且集中从社会监管理念出发,探讨通过赋权与规范的方式引导社会力量参与金融科技监管,以协同治理框架破解算法黑箱。概言之,本文的贡献与创新在于避免过于宏大叙事地泛谈金融科技监管,而是针对算法黑箱的风险及其治理,开辟出未来金融科技监管中不容忽视的一条可行路径。








一、金融科技运用中的算法黑箱及其法律风险






(一)金融科技伴生的算法黑箱难题

金融科技应用的终极目标,是借助日新月异的技术进步实现金融活动的高效和普惠。传统金融活动中信息的传递、匹配和处理受到人类思维和认知的诸多局限,金融科技的出现和应用为计算机在一定程度上替代人类搜集、分析相关信息并作出交易决策提供了可能,使得金融活动能够以自动化、智能化的方式完成,从而能够不断提高金融服务的普惠性与便捷性,有效促进生产效率的提升。例如,智能投顾能够在充分评估投资者的投资偏好和风险承受能力的基础上,建议甚至替代投资者作出最优的投资决策;商业银行亦可以通过大数据技术的应用,对借款人的资信状况进行测评,从而在线上计算出相应的信贷额度并自动完成贷款发放流程。以大数据、人工智能等技术为代表的金融科技,已经充分展示出应用于未来金融市场的广泛前景,也体现了降低金融交易成本、提高金融效率并拓展金融服务覆盖范围的巨大潜力。然而,实现智能化和自动化的前提和基础是以计算机网络系统替代人脑人力,即以技术理性替代人类思维,这便意味着“算法”将在很大程度上成为金融市场活动所遵循的基本逻辑。易言之,金融科技的应用将强化计算机系统网络在金融市场活动中的角色和地位,算法或将成为金融体系运行的驱动力量。

    算法(Algorithm)是指对解题方案准确而完整的描述,是一系列解决问题的清晰指令。算法代表着用系统的方法描述解决问题的策略机制。作为大数据技术和人工智能的基础,算法是金融科技应用过程中对金融市场主体和交易信息等数据进行搜集和处理的核心逻辑。当前人工智能和机器学习的发展尚处在起步阶段,计算机自身并不具备自主思维,其对信息的处理都是依赖于人工设置的算法,因此算法在金融科技应用中具有关键性地位。金融科技应用中算法的基本工作原理是按照算法设计的运算逻辑搜集符合条件的相关信息作为输入数据,根据设定的规则和流程进行处理并输出计算结果。例如,在大数据征信应用中,系统在抓取征信对象的交易信息、履约信息、财产信息等数据后,按照预先设置的评价体系和评分标准对征信对象进行数据化评价,最后得出征信对象的信用评分。从运行的原理和流程来看,算法具有两个方面的特征需要我们在享受其带来的巨大便利的同时加以警惕:其一,尽管输入信息和输出结果是可见的,但算法对数据进行处理和运算的过程封装在算法黑箱之中,是不可见、不透明的。而算法本身又是以程序代码的形式存在,其高度的复杂性和专业性使得一般人几乎不可能独立自主地了解其设计理念和运行逻辑。其二,尽管算法运用所意味的自动化和智能化能够在一定程度上排除人工的干预,可以得到更为客观的结果,但是算法的设置仍然无法脱离人为干预,即算法规则如何确定等依然具有被人为操纵的可能性。易言之,算法本身并非是完全“价值中立”的,其在设计之时可能已经受到设计者的价值判断的影响,从而带有某种难以避免的偏见、局限。这种操纵与歧视又因为算法自身的不透明性而更为隐蔽,从而更易造成难以察觉的损害。概言之,算法自身的复杂性和不透明性导致了“算法黑箱”的形成,而算法编写过程中的“非中立性”本质在“黑箱”掩盖下蕴藏着人为操纵的巨大风险。

(二)算法黑箱带来的欺诈风险

算法取代人工决策存在欺诈风险。与传统机器被动学习不同,以算法为基础的大数据、智能投顾等金融科技遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程,由计算机从事物原始特征出发,自动学习和生成高级的认知结果。算法应用于金融活动决策的初衷是为了消除人类决策受诸多有意或无意的偏见以及信息不充分等因素影响,因此利用数学模型将投资交易决策量化、客观化,可以消除决策程序中的人类偏见。智能算法的设计目的、数据运用、结果表征等都是开发者、设计者的主观价值选择,他们可能会把自己持有的利益导向嵌入智能算法之中,而智能算法又可能会把这种倾向进一步放大或者固化,难以确保算法系统公正性而带来欺诈风险。在算法规则设置及数据输入中,都存在着欺诈的风险可能。以智能投顾为例,智能投顾公司与负责算法设计的科技公司利用后者技术优势在算法中设置不公平规则,使某类金融产品总能获得优势评估而被广泛推荐于不知情消费者;亦或在数据输入中存在强烈导向,系统基于不合理的数据演算得出不公平的金融产品评估结果,对广大投资者存在着相当的潜在利益侵害可能,产生欺诈风险。

算法将决策过程隐藏在黑箱中,其流程的隐蔽性和不透明性存在欺诈风险。“黑箱”不仅意味着不能观察,还意味着即使将做出这一决策的代码向普通民众公开,其也难以被理解。换言之,算法黑箱中的决策产生过程不但不可见,一般人也难以对黑箱中的流程进行合理的质疑与查验。除了此种因技术文盲而产生的不透明性之外,金融科技所应用的算法还有其他两种不透明性,即因公司商业秘密或者国家秘密而产生的不透明性,以及从机器学习算法的特征以及要求对它们进行有效适用的测量中产生的不透明性。黑箱的存在使决策过程缺乏合理监管,同时黑箱中数据操作流程的复杂性与专业性,与具有不同基础的主体之间存在着显著的数字鸿沟,普通消费者甚至金融机构都处于被动接受结果状态而无法主动介入了解决策程序,给予了算法设计者、开发者及运营者极大的自治空间。由于算法的不透明性,如果不加以监管,任其参与金融活动的宣传或决策过程,无疑会增加市场主体受欺诈的风险。

算法成为决策责任主体剥离责任的理由,从而存在欺诈风险。法律责任认定中的核心问题为应由何者来承担因过错行为和损害结果所产生的损害赔偿问题。2017年10月,机器人Sophia被沙特阿拉伯王国授予公民身份,这意味着人工智能系统被赋予法律上的独立人格已有先例。人工智能机器人能否独立承担民事责任仍存争议,我国目前也尚无相关法律法规予以明确规定,然而随着人工智能的不断深入发展,存在着人工智能独立成为法律主体、享有权利、履行义务的可能。在金融科技的应用中,随着人工智能在法律关系中的地位从客体到主体的转变,既有责任分配的方式也势必会受到一定程度的影响。以金融科技运用较为成熟的智能投顾为例,以算法为基础的智能投顾事实上已经能在一定程度上取代人类投资顾问,可以向投资者直接提供投资顾问服务。在传统侵权责任法下,智能投顾机器人作为受金融服务公司直接支配的物,若在提供服务的过程中对第三人造成了损失,则由金融服务公司承担直接责任。但如果智能投顾等人工智能在法律上实现了从客体到主体的转变,金融交易的法律关系将在一定程度上被重塑。在此种情形下,智能投顾等人工智能作为法律拟制的“人”,其与金融服务公司之间的法律关系将从支配关系变为雇佣关系,相应地,若其引致损害事实的发生,金融服务公司所承担的责任也从直接责任转变为了替代责任。而承担替代责任的前提是,雇员因执行工作任务而造成他人损害。对于强人工智能,其具有较强的自我学习能力,不排除其存在偏离既定的“工作任务”,自主开展其他任务的可能性,进而使得作为智能投顾等人工智能背后的委托人或雇主的自然人或法人可以通过算法学习过程中的不可控制性为自身的行为进行辩解。智能投顾的核心是算法,在算法和程序支配之下,智能投顾机器人通过对大数据的分析提供投资顾问服务。相较于金融消费者,开发者、运营者对智能投顾等人工智能的设计和进化有着绝对的专业优势,如果开发者、运营者在设置算法时进行有违公平的操作,对投资者进行欺诈行为,并以人工智能的法律人格独立性为由逃脱追责,势必会给市场各主体带来巨大的欺诈风险及损失。








二、破解算法黑箱的核心要素






算法因其自身的复杂性和不透明性而导致算法黑箱的产生,算法黑箱的存在使部分开发者和运营者的不法目的得以实现,给金融市场带来巨大风险。根据算法黑箱的产生及其存在的风险诱因,破解算法黑箱的核心要素在于解决算法的可靠性、透明性、可解释性及可问责性问题,完善核心要素机制,降低算法黑箱存在的风险可能性。

(一)算法的可靠性:破解黑箱的前置要素

算法的可靠性要素本质上即算法公平。在理想情况下,数据系统将有助于消除不恰当的人类偏见。金融科技所应用的算法大部分是机构开发和推广的,主动权并不取决于用户个体的力量。作为机构意志的模型,算法的实施初衷、数据运用、程序开发、代码嵌入、结果表征往往与机构掌控者的利益追求紧密相连,换言之,算法因与人的干预有关联而无法绝对客观,因此算法在很大程度上存在着产生带有歧视和偏见的决策结果,从而对金融市场投资者的利益产生负面影响,例如对无经验的投资者进行价格歧视。经验丰富的投资者能够撇开产品的复杂性,选择风险收益较高的金融产品,而无经验的投资者对复杂产品的平均预期收益水平的估计较高,从而选择复杂产品而非简单产品,为产品的复杂性支付溢价。同时通过算法技术,价格歧视从以往的二级或三级提升至理想化的一级水平,即数据处理者挖掘消费者足迹,完全掌握消费者的消费意愿和预期价格,将产品依据消费者不同而进行不同定价,按照每一位消费者的最高支付意愿进行差异化定价,作为消费者的个体却无丝毫反抗之力。完善算法的可靠性机制即促进算法公平性调整,追求算法的程序公平和结果公平,减少算法中存在的偏见与歧视,能够真正实现为投资者利益服务的目的,降低黑箱风险发生可能性。

(二)算法的透明性与可解释性:破解黑箱的过程要素

算法黑箱产生的一大关键因素即算法的不透明性。传统形式上的一般决策都能够反映决策主体的说理与论证,然而以算法为基础的人工智能、大数据的自动决策系统往往直接得出结果,一般人只能接收到决策结果而对决策产出的规则、相关理论、模型依据等处理过程一无所知。投资者对算法的透明性的要求实际上是“知情权”这一传统消费者权利在金融科技领域的具像化展开,算法的不透明性扩大了算法开发者、运营者与普通消费者之间的信息鸿沟,使金融市场上的信息不对称情况恶化,加剧了市场各主体地位不平等的现状。例如,国内目前的智能投顾公司大都对其模型依据和关键参数语焉不详,在费率等关键问题上也并未明确告知投资者。这种由于技术因素引发的信息不对称,必然会影响投资者作出合理判断。提高算法的透明度不失为解决此种信息不对称的一种有益尝试。当算法的操作规则、创建、验证过程完全公开,此时才属于完全透明算法。然而由于算法技术的专业性与特殊性,尤其是算法自身涉及知识产权、商业秘密等问题,要求算法的完全透明不现实也无根本意义。追求合理程度的、有意义的算法透明性,能够保障市场主体应有的知情权,也能为算法的公平性提供相应的根据,为算法的监管与运用提供良好背景。

算法可解释性关涉市场主体的主人翁地位,其含义是算法开发者对算法的决策机制作出解释,依据算法系统对其决策过程作出阐述。对算法的安全感、认同度取决于算法的可解释性。从内部视角来看,算法在金融市场具体应用场景的局限以及对纠正算法决策偏差的需求,使得算法的开发者和运营者需要寻求算法的可解释性以推动其应用;从外部视角来看,由于金融市场上传统的约束机制如信息披露等难以对算法产生足够约束并常常失灵,投资者、社会公众以及监管部门会要求确认算法决策的可信度和正当性,从而产生对算法可解释性的需求。算法可解释性在本质上是算法理性问题,追求算法可解释性的背后是寻求理性结果,算法程序和系统只是途径和手段,算法决策过程中的价值判断是核心。目前金融科技中运用的算法决策的可解释性主要分为两类,第一类是执行性的自动化程序决策场景,在此种程序下,代码的作用仅是根据设计者设定的决策程序执行。例如,大数据抓取数据得出统计结论,此类算法决策具有较高可解释性,能够反映出决策理性。第二类是具有深度学习能力的人工智能,其结构、算法的复杂性决定其可解释性难度较高,因此存在着“黑箱”风险。例如,智能投顾的主要决策建议均涉及人工智能的参与。在目前算法透明度规制还未存有共识的情况下,针对算法黑箱风险的解决,对于算法提出一般化的可解释性原则殊为必要。

(三)算法的可问责性:破解黑箱的责任要素

算法可问责性对于破解算法黑箱具有重要意义。根据美国智库“数据创新中心”(CFDI)的“算法问责框架报告”,算法可问责性的定义为算法系统应采用各种控制措施来确保运营者(即负责部署算法的一方)可以验证其是否按预期运行,并确定和纠正有害后果。首先,算法可问责性旨在使运营者对于算法造成的任何危害负责,本质上属于无过错责任。由于运营者在金融科技的使用上能够对金融市场产生最大的影响力,因此对运营者的问责能够确保其使用算法提供金融服务时的合法性。其次,要求运营者对算法造成的结果而非算法决策过程负责,能够使运营者对算法的部署及实际运用效果给予具体且足够的关切,并采取相关配套措施以降低风险发生的可能性。当算法的缺陷或漏洞导致了损害结果,算法的开发者与运营者往往会以算法决策过程的自动化和智能化作为免责事由,决策主体与责任主体相脱离会加剧算法黑箱导致欺诈风险的可能。加强算法的可问责性,使算法的开发者和运营者在合理的范围内承担责任,能够有助于金融科技的负责任应用,在一定程度上减少算法黑箱的空间。








三、社会监管理念及其破解算法黑箱的可能性






在金融科技逐渐被广泛运用到金融市场的过程中,由于算法技术的专业性与复杂性,并且存在知识产权和商业秘密的诸多因素影响,对其进行审查非常困难,且对于非专业人士而言执行成本较高。同时,由于未来金融服务的发展趋势是个性化、定制化,算法黑箱的产生将更加隐蔽,仅由金融监管部门通过传统的行政监管的方式对算法黑箱问题加以规制,其作用有限,不能满足迅速发展的市场需求及当前巨大的监管空白。根据我国国情及金融市场发展现状,基于通过单一主体的力量无法解决算法黑箱问题的现实,我国应引入社会监管理念以破解算法黑箱。

(一)社会监管理念的引入

社会监管理念是指监管主体和监管方式的社会化,是社会共治理论在市场监管领域的具体表现。监管主体的社会化即履行监管义务的主体不局限于监管部门,而是各类社会主体通过沟通、协商、调和、合作的方式进行共同监管,政府、社会组织、企业、公民个人等主体都可以在一定规则的约束下,以不同形式共同行使监管权力。企业自治、行业自律、社会监督、政府监管共同组成社会监管体系,任何一个主体都难以单枪匹马地行动,而必须寻求与其他主体的通力合作、共同治理,以实现治理力量的合理均衡[]。监管方式的社会化即各主体履行监管义务的方式各不相同,政府通过具有执行权的监管部门进行事前出台相应规定和事后处罚,企业通过自我审查机制检验合法性,社会组织以第三方身份进行必要监督,公民以消费者身份要求行使对相关信息的知情权。社会监管理念激发和引导多元市场主体参与监管,能够弥补传统监管的空白,适应市场发展的现实需求,是提升社会监管水平和效率的必要途径。在金融领域,社会监管理论也正日益受到重视,中介机构、新闻媒体等社会机构直接或间接参与金融监管,能够通过金融监管的社会化增强监管力量,实现监管效能的提升。

(二)社会监管理念的实现

在社会监管模式中,政府仍需发挥主导作用,与此同时,政府在社会监管模式中必须重视各社会主体的合作监督,发挥各市场主体的最大效用。社会监管理念在金融科技算法领域的运用即联合政府、市场投资者、第三方专业机构及算法开发者和运营者对算法决策开展监督管理,采用多种监管方式,有效推动算法的核心要素实现,从而达到破解算法黑箱的目的。

政府有关部门对算法进行监管,推动算法透明性和可问责性要素的实现。2017年2月欧盟议会通过《机器人民事法律规则》,强调算法透明原则,即对某个人或更多人的生活可能产生实质性的影响、借助人工智能所做出的决策,必须在任何情况下都可以提供其决策背后的算法设计规则。这自然也包括金融科技应用领域中的决策算法。2017年12月美国纽约市议会通过了算法问责法案,根据此法案将成立一个由自动化决策系统专家和受自动化决策系统影响的公民组织代表组成的工作组,专门监督市政机构使用的自动决策算法的公平性、可问责性和透明性。虽然这项法案并未涉及金融市场领域,但可见国外相关监管部门对算法决策的透明性问题逐步重视,其关于算法透明性的规制亦将完善。相关部门出台相应的针对算法透明性范围及问责机制的法律法规具有强制效力和法律刚性,根据这些法律法规,通过事前规制与事后处罚相结合,明确对于算法透明性的要求,厘清算法的责任主体、决策行为、损害后果和因果关系,从而确定和分配算法责任。算法的透明性要求及可问责性的完善能够对算法开发者和运营者起到威慑作用,促使其合法合规地开发、运营算法,提高算法决策的公平性。

金融市场投资者对算法进行监督,能够推动算法可解释性和可靠性要素的实现。金融消费者与一般消费者同样享有知情权,即公平、自由、不受歧视地享有全面真实准确获取金融信息的权利。2017年1月,美国计算机协会(ACM)下属的公共政策委员会发布《算法透明性和可问责性声明》(Statement on Algorithmic Transparency and Accountability),提出了七项基本原则,其中一项为“解释”,希望鼓励使用算法决策的系统和机构,对算法的过程和特定的决策提供解释。2018年5月欧盟正式实施的《通用数据保护条例》中提出“解释权”,赋予欧盟国家公民“审查某项特定服务中如何做出特定算法决策”的权利。从国外的实践中来看,就智能金融自动化算法规制来说,知情权可以延伸为对算法的“获解释权”,即对于智能金融算法得出的决策过程及结果可以请求运营者给出必要的解释。金融消费者对于算法的“获解释权”自算法信息搜集阶段始,对于个人数据的使用和处理及算法系统所可能产生的黑箱、歧视、隐私泄露等伦理和法律问题均有知情及获解释的权利。金融消费者因涉及其自身利益而对“获解释权”的积极行使,将使算法时刻处于消费者的监督之下,从而促使算法开发者及运营者对算法进行更为准确与公平的设置,这将有效提升算法可靠性,降低黑箱风险。

第三方专业机构对算法进行监督,可以推动算法透明性和可靠性的实现。专业监督即对算法设计制定具有可操作性的技术和行业规范以及算法运行及决策全过程进行监督,让算法开发者在进行设计之前、运营者在算法运行之时均能受到有效制约。由于算法的专业性和复杂性,监管部门难以对其实行有效的审查,一般公众也难以承担对算法进行解密或透明化的高成本,因此,算法的监督及检查可以由政府或政府委托的机构承担,尤其是对于复杂算法的监督可以委托专门的机构协助进行审查。互联网领域存在大量“白帽”黑客,即专门研究或者从事网络、计算机技术开发的人,通常受雇于各大公司维护其系统安全。而在“白帽”黑客的范畴中存在“红帽”黑客,“红帽”黑客利用其技术维护国家总体网络安全而非为某特定市场主体服务,以坚持正义为宗旨,关注设计公共利益的网络事项,具有价值中立性。“红帽”黑客作为第三方专业机构对算法进行测试检查,能够更加容易洞悉设计者的理念并了解具体的操作程序,通过同行专家的评价和信息披露,可以对设计者开发的算法进行有效监督,同时第三方专业机构价值中立,其不会偏向任何一方,对于有损决策公平性的算法黑箱零容忍。智能金融算法与普通消费者之间存在的巨大的信息鸿沟在“红帽”黑客处并不存在,“红帽”黑客利用其技术优势能够对算法进行有效监督,提升其透明度和公平性。

 算法开发者、运营者进行内部自我监督,能够推动算法的可靠性和可解释性的实现。内部自我监督既包括对于具体算法系统的检验设置,也包括行业内算法技术设计原则的审视。美国计算机协会(ACM)提出算法的验证和测试原则,即算法开发者应该使用严格的方法来验证它们的算法模型,记录这些方法和结果并定期进行测试,以评估和确定该算法模型是否产生了歧视性损害,同时鼓励机构公开这些测试的结果。这一原则同样适用于智能金融算法领域,算法开发者、运营者在将智能金融算法投入市场使用前、使用过程中应对其进行验证,以确保在为消费者提供金融服务或作出金融决策时已最大化消除歧视偏见。算法开发者对于算法的了解程度最高,发现并纠正算法漏洞和不合理设置的效率更高。由于受到法律规制及外部监督,为维护其竞争优势及声誉,算法开发者和运营者有足够的动机主动对算法进行检测。算法技术可能产生黑箱问题,那么改良技术本身也是推动破解黑箱的核心要素实现的重要途径。通过设计算法系统来促进公平,可以从算法运转的第一步防止歧视。利用设计和基础工程的平等机会原则,采用合理的道德要求和专业的最佳做法(Best Practice),也将有助于减少算法长期的歧视性现象,增强包容性。例如,以罗尔斯的机会平等理念(Fair Equality of Opportunity)为基础设计的机会平等的技术模型,在一个在线决策模型中提出满足平等和效率平衡的算法技术约束,并开发“歧视指数”(discrimination index),对算法技术的歧视行为提供评判标准,提出如何设计“公平算法”的方法。智能金融算法的开发者、运营者对于算法的内部检查及对行业设计原则的遵守能够促进算法决策的公平性。因此在金融机构应用金融科技时,完善数字化渠道和流程,加强数字化风险控制,在算法设计和应用环节做好风险防范,对于应对算法黑箱能够发挥重要作用。








四、赋权与规范:社会监管力量参与的路径与制度






社会监管理念的运用对于金融科技算法黑箱的破解具有深刻意义,其基本内涵在于由多元化主体采取多元化方式对算法进行监督,从而有效推进和实现破解算法黑箱的核心要素。但社会监管力量的参与并非随意无序,而是以法律法规赋权为基础。换言之,在政府相关监管部门进行行政监管的基础上,各社会主体依据相关法律法规赋予的权利进行监督,在法律法规许可范围内行使相应权利。各类社会力量参与金融科技的合作治理,能够弥补政府在监管资源、能力、机制方面的局限,提高监管效能。为了消解金融科技应用中算法黑箱带来的欺诈风险和不公平后果,必然要求算法核心要素的实现。从社会监管参与力量最大化的角度而言,算法的透明性和可问责性是最佳发力点。优先解决算法的透明性和可问责性是推动算法核心要素完善的基础,也是破解算法黑箱的最优方案。

算法的完全透明化并不现实,在金融科技运用过程中寻求有意义的算法透明性规制能够实现对算法黑箱的消解。“有意义的透明性”允许算法的利益相关者对算法本身、算法使用和算法实现进行干预,保证算法的过程是负责任的。这种有意义的算法公开,既对算法的开发者和运营者在程序编写过程中的规范性提出了更高的要求,也赋予了部分金融消费者深入了解算法深层次逻辑的能力。具体而言,“有意义的透明度”有着相对严格的标准要求:首先,算法能够以数学逻辑符号和自然语言的某种组合形式进行披露;其次,算法的基础数据或对其进行的描述,能够有助于外部了解其特征与结果之间的相关性和基本逻辑;最后,算法目的、数据管理权和访问权、智能合约、算法验证和跟踪计划等可以被评估和检验。在社会监管力量参与的前提下,为了在实现合理的透明性方案的同时兼顾各方主体的合法权益,应当建立算法的开发与应用环节的基础规则。首先,应要求开发者将其算法设计的基本情况进行向监管部门进行登记或备案,并向社会公开,满足公众行使知情权的现实需求。其次,由于算法技术的特殊性,其信息并非主动公开,而应由利益相关的社会主体依法申请查询,在规定的范围内对算法信息进行披露,对于涉及商业秘密、知识产权的部分应做适当保护。最后,为了保护算法开发者的合法权益,即防止同业恶性竞争及算法信息不当泄露,申请查询者也应进行身份信息备案并说明查询理由,同时查询者也应履行适当的保密义务,违反义务者对于算法开发者的合法权益的损害应承担赔偿责任。

算法的可问责性要素的实现,同样需要借助社会监管的力量。一方面,可以通过行政监管权力的行使,追究违法的算法的开发者和运营者的行政责任,以规范其商业行为。具体而言,行政监管部门应该充分采用多种监管手段进行全过程的审查与监管:既包括事前算法设计者向专门机构提供算法相关技术及决策依据的说明并进行备案,又包括事中由专门机构加大对算法与决策的随机抽查力度,从技术上对算法进行审查检验,对错误决策进行纠正,还包括事后通过构建算法问责追溯机制,为公众建立对算法决策申诉的渠道,接受公众对算法的质疑,要求算法设计者针对算法进行必要解释和说明。另一方面,要清理金融消费者提起私人诉讼的法律障碍,对金融消费者进行赋能,使其能够通过诉讼的方式,对因金融科技算法错误决策而导致的损失请求赔偿。私人诉讼不仅是弥补金融消费者的途径,也能够通过巨额的民事赔偿对算法的开发者和运营者形成有效震慑。承担这一赔偿责任的主体应为将智能金融算法投入使用的运营者:首先,运营者拥有提供金融服务许可牌照,而金融科技算法参与金融活动的前提条件即基于牌照许可;其次,算法在金融科技中的使用最终收益者仍为运营者,例如开发智能投顾业务的获利者仍为提供相应金融服务的金融机构;最后,运营者对于算法的投入使用负有管理义务和诚信义务,违反相应义务也应承担责任。








五、结论与对策






金融科技的运用对金融市场服务效率的提升有着显著的积极作用,然而支撑其运行的算法却因自身的不透明性而存在产生“算法黑箱”的可能性。“算法黑箱”引发的价值偏离、信息不对称、责任错配,皆会增加金融交易中的欺诈风险。算法的可靠性、可解释性、透明性和可问责性要素正是破解“算法黑箱”问题的核心,而其中对算法透明度加以规制和可问责制度的完善更是重中之重。社会监管理念的引入对于算法透明度和可问责的推进有着重要意义,联合社会多元主体协同进行监管,充分发挥各类主体基于特定身份权利在相应环节的监督能力,对金融科技应用中的算法黑箱进行多维度的监管,从而发挥有效消解算法黑箱并防范欺诈风险的积极效果。具体对策建议如下所述。

第一,建立金融科技算法备案制度,以强制备案和有限公开为推动算法透明度提供制度保障。要求对算法进行备案,能够确保监管部门对算法的核心逻辑和风险要点进行整体把握,为社会公众了解算法规则提供权威信息和数据,在一定程度上实现算法的公开透明,避免因算法黑箱造成的欺诈风险。2018年4月27日,金融监管当局发布了《关于规范金融机构资产管理业务的指导意见》,其中就要求了算法的备案,即金融机构要向监管部门报备人工智能模型的主要参数及资产配置的主要逻辑。这一规定开启了金融科技算法备案制度的先河,然而备案主管部门、备案的内容和程序、备案资料的精细化要求、备案信息公开查询以及未履行备案义务的法律后果等细化规定仍尚付阙如,这都需要在法律和监管规则制定过程中予以明确。尤其是在要求金融科技应用主体在对算法进行备案和公开的过程中,如何平衡信息披露和商业秘密(或更广义层面的知识产权)保护之间的关系,并据以确定备案内容和公开程度,是设计算法备案制度需要妥善考虑并充分协调的问题。

第二,制定金融科技算法行业标准,以行业自律监管维护算法的可靠性和可解释性。金融科技应用主体在研发和设计算法时,会基于自身业务模式和商业逻辑而形成千差万别的算法,不同主体的算法之间的差异性一方面体现着研发主体的技术特征和优势,但另一方面也可能因缺乏统一标准而导致算法出现错误和漏洞,从而导致投资者和金融消费者的权益陷入风险,也妨碍了金融产品和业务之间的有效联通。行政监管部门受限于自身角色定位,不宜直接介入和干预金融市场主体的算法设计,因此充分发挥中国互联网金融协会等行业组织的自律监管角色,鼓励其制定兼具指导性和约束性的算法标准,确立金融科技算法设计的底线要求,从而保证算法在运行安全上的可靠性以及在应用实践上的可解释性。

第三,设置金融科技算法质询与举报制度,以全社会的广泛参与和监督倒逼算法的透明与可靠。社会监管理念的核心在于充分发动各类社会力量参与监管实践,投资者和金融消费者、新闻媒体、技术专家等均可以在专业知识和获知信息的基础上对金融科技算法的有效性和可靠性进行判断,披露和举报算法中存在的缺陷和漏洞,以此作为行政监管和自律监管的有效补充,从而对金融科技算法进行有效监督。从这个层面来看,有必要在算法有限公开制度的基础上,结合信息披露制度和知情权保护制度设置算法质询制度,赋予市场主体要求金融科技运营者披露算法逻辑的权利,同时借鉴证券市场“吹哨人”制度建立有奖举报和保护举报人的相关规则,从而系统性地保障一般市场主体能够了解和举报隐藏在算法黑箱中的漏洞,丰富社会力量参与算法治理的渠道。

第四,完善金融科技应用主体的法律责任,以合理且有效的追责体系确保算法的可问责性。隐藏在算法黑箱中的缺陷和漏洞,是导致投资者和金融消费者权益受损的重要原因。但由于算法的专业性和复杂性,金融科技应用主体是否具有主观故意,即该缺陷和漏洞是否源自人为,往往成为金融科技应用主体主张免除责任的依据。因此在进行责任认定时宜采严格责任原则而非过错责任原则,以更加直接和严格的归责原则对金融科技应用主体施加更为有效的约束,充分保障金融消费者的合法权益。当然,也需要充分考虑鼓励创新的制度考量,在责任范围确定时适当考虑算法缺陷和漏洞的形成原因,将其作为计算赔偿数额的参考因素。通过明确法律责任以及畅通救济渠道,引导受损投资者通过依法追偿的方式,形成对算法黑箱的有效社会监管。





涉及文章转载、内容推送事宜

请联系:贾海东

13971296127

本期编辑:吴昊天 | 校对:任韵薇

审核:李安安  |  袁 康


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存