
走向未来
人工智能正成为全球金融服务行业的核心战略焦点。机构的投资力度持续显著增长,2024年的调查数据显示,百分之百的受访机构均增加了在人工智能与机器学习领域的投入。然而,在这股浪潮之下,金融行业并表现出激进的态势,而是呈现出一种保守而协同的演进路径。
这种独特的路径源于金融机构在技术应用上的双重叙事:一方面,它们在传统的预测型人工智能领域已经构建了成熟、坚固的防御体系;另一方面,面对以大语言模型为代表的生成式人工智能这一阶跃式变革,它们正采取极为审慎的内部探索策略。金融机构正凭借其数十年在信贷风险、欺诈防范和反洗钱等领域积累的经验,谨慎地评估着前方的道路。
本文基于国际金融协会 (IIF) 与安永 (EY) 发布的2024年度调查报告(该报告全文及本文PDF版已收录到走向未来【https://t.zsxq.com/xpWzq】知识星球,推荐加入星球中获取权威前沿的人工智能领域相关的技术、产品和市场分析报告),深度剖析金融行业在人工智能应用上的双轨策略、治理上的核心悖论、与监管机构的全新互动模式,以及数据生态作为未来发展关键瓶颈的现实。这场演进不仅是技术的更迭,更是一场关于风险、效率、治理与未来生态的系统性重构。

金融行业对人工智能的信心,首先建立在预测型人工智能(Predictive AI)的广泛且成熟应用之上。调查数据显示,高达88%的受访机构已在实际生产环境中使用预测型人工智能技术。这表明,对于金融行业而言,人工智能早已不是概念,而是日常运营的基础设施。

深入分析预测型人工智能的用例分布,可以清晰地看到金融行业的核心关切。排名最高涨的应用领域集中在风险管理(占百分之十五)、欺诈防范(占百分之十二)、运营(占百分之十)和合规(占百分之十)。销售、市场或客群分析等增长导向的应用虽然存在,但优先级明显落后于防御性功能。

这一分布揭示了一个深刻的洞见:人工智能在金融领域的首要价值是防御。在管理系统性风险、维护金融稳定这一最高使命面前,技术首先被用于构建更坚固的盾牌,其次才是打造更锋利的长矛。人工智能被用来识别异常交易、评估信用风险、监测洗钱活动,以及自动化后台运营,其核心目标是加固机构的稳定性、安全性与合规性,同时实现运营效率的提升。
这种成熟的应用离不开一套已经建立并运行多年的治理和控制机制。高达百分之八十五的机构部署了人工在环(human-in-the-loop)控制,百分之八十七的机构实施持续的性能监控,百分之七十的机构甚至配备了终止开关(kill switches)。这些机制确保了模型的决策始终处于人类的监督和控制之下,防止了算法的失控。

在组织架构上,人工智能治理的领导权也体现了这种风险为先的文化。首席风险官(CRO)和首席数据官(CDO)是最常负责监督人工智能治理的职能,分别占比百分之二十七。这再次证明,金融机构在现阶段更倾向于从风险管理和数据治理的视角来框架人工智能,而不是将其视为纯粹的技术或营销工具。正是这个坚实的防御基座,为金融机构应对下一波生成式人工智能的冲击提供了必要的经验和底气。

如果说预测型人工智能是金融业的现在时,那么生成式人工智能(GenAI)无疑是未来时,但这是一个被谨慎对待的未来。2023年至2024年,金融机构对GenAI的态度发生了根本性转变,禁止使用该技术的机构比例从百分之十一骤降至仅百分之一,百分之八十九的机构正在使用或试点GenAI。这标志着GenAI已经主流化。
然而,主流化不等于轻率部署。金融机构展现了极端的审慎,将实验严格限制在内部。数据显示,高达百分之八十的GenAI用例是面向内部员工或流程的,只有百分之十一的用例直接面向外部客户。
这种内部优先的策略,清晰地勾勒出了金融机构的GenAI采纳路径。第一步,也是当前的主流(占百分之五十二),是利用GenAI优化员工对内部知识的访问和使用。这包括构建内部知识库、智能搜索、辅助员工回答复杂查询等,其本质是员工赋能,让员工在技术的辅助下变得更高效、更博学。第二步(占百分之二十五),是利用GenAI实现流程、系统和运营的自动化,例如辅助代码生成、报告撰写和文档处理。

金融机构之所以选择这条路径,根源在于它们对GenAI核心风险的清醒认知。高达百分之八十的机构将幻觉(Hallucinations)即模型产生虚假信息,列为关键风险;百分之七十四的机构担忧数据机密性与隐私问题。在一个零容错、高杠杆的行业中,任何直接面向客户的、未经充分验证的幻觉都可能导致灾难性的财务损失或声誉破坏。这种对核心风险的清醒认知,也从技术路径上决定了金融机构的必然选择。大语言模型本身固有的幻觉和知识陈旧特性(《知识增强大模型》第1.2节),使其无法直接应用于严肃的金融场景。正如资深人工智能专家、著有《知识增强大模型》一书的王文广所强调的,破局的关键在于构建知识增强体系。通过引入检索增强生成(RAG,第4章)和知识图谱(第8章)等技术,将大模型与机构内部的、私有的、可验证的实时知识库相连接。这一技术范式完美解释了为何当前金融机构(占百分之五十二)的首要任务是优化员工对内部知识的访问和使用——他们并非在简单地使用GenAI,而是在构建可控的、由私有知识驱动的增强型应用。这一路径将不可控的概率生成,转变为可追溯、有事实依据的推理辅助(第8.6.1节),是金融业在严苛合规要求下应用GenAI的必由之路。

因此,金融机构正在将自身作为GenAI的第一个沙盒。它们利用内部应用场景来安全地测试和理解这项技术,在风险可控的环境下积累经验、调优模型、建立护栏。调查预测,未来十二至十八个月,内部流程自动化(预期占百分之四十三)将超过知识管理(预期占百分之十九),成为GenAI的第一大应用,而面向客户的外部应用(预期占百分之二十二)将开始增长,但仍居次位。这是一个清晰的先内后外、先学后用的战略,在触及客户资金和信任之前,必须首先在内部完成彻底的风险出清。

随着人工智能应用的规模化,金融机构的治理架构也在加速成熟。百分之七十四的机构已经或计划任命C级别(C-suite)管理者来负责人工智能伦理与治理,这一比例高于去年的百分之六十六。这表明人工智能治理正在从一个技术问题上升为董事会层级的战略议程。
然而,在治理日趋完善的表象下,一个深刻的悖论和结构性风险正在浮现,即第三方模型的验证鸿沟。
随着模型日益复杂,特别是GenAI的出现,金融机构越来越依赖外部供应商提供专业模型和解决方案。高达百分之九十四的受访机构预计,未来十二个月内第三方AI/ML解决方案的使用将增加。这种构建与购买并举的策略是实现快速规模化的必然选择。
悖论在于,金融机构在治理上出现了认知与执行的脱节。报告显示,百分之八十五的机构在政策上要求第三方模型必须与内部开发模型接受同等级别的验证标准。这是治理上的高标准。
然而,现实的执行却大相径庭。在这百分之八十五的机构中,超过一半(占百分之五十一)的机构承认,由于在获取第三方信息(如数据、算法细节、测试结果)方面受到限制,它们在现实中无法执行与内部模型同样彻底的验证。
这是一个巨大的治理缺口。当金融机构的核心功能(如风险评估、欺诈检测甚至客户交互)越来越依赖于那些它们无法充分验证的黑箱时,系统性风险便在悄然累积。随着对第三方依赖度的持续加深(94%的预期),这个验证鸿沟构成了金融AI生态中最突出、最亟待解决的风险点。它暴露出金融机构在面对强大的技术供应商时,其传统风险管理工具和议价能力可能正在失效。
过去,金融行业与监管机构在创新技术上常被描绘为一种紧张关系,行业抱怨监管的滞后,监管担忧技术的失控。但2024年的报告数据传递出一个极其重要的新信号:双方正在从隔阂走向共进,一种监管的趋同正在形成。
最有力的数据是,行业对监管的信心出现了急剧增加。高达百分之六十九的机构认为,其监管者/监督者有足够的能力来理解和指导AI/ML的发展路径。与此相印证,在2023年还被视为第二大挑战的监管的理解或同意,在2024年的挑战排名中已大幅下降,仅有百分之六的机构将其列为关键挑战。

这表明监管者不懂技术的旧叙事已经过时。取而代之的是,监管参与的常态化。百分之七十的机构已经与监管机构就AI/ML应用进行了接洽,远高于2023年的百分之五十三。
双方的焦点也在趋同。监管机构在沟通中最常提出的问题是:可解释性(百分之十八)、透明度(百分之十六)以及偏见与伦理问题(百分之十三)。这与行业内部治理的关切高度一致。
更重要的是,全球监管正在形成一种共识,即采用基于原则的方法。百分之七十三的机构认为其所在地的监管发展将影响AI采用,而在这些发展中,百分之五十四(包括强制性和自愿性)属于基于原则的方法,远超基于严格规则的方法(占百分之十五)。
这一系列数据勾勒出一个监管共进的新常态。监管机构不再是创新的刹车,而是成为对话的参与者。行业与监管正在共同演化,共同探索一种既能鼓励创新又能控制风险的治理语言。这种基于原则的监管框架,为行业在不确定的技术前沿进行探索提供了必要的灵活性和护栏,标志着金融AI的治理进入了更成熟的阶段。
当人工智能的算法、算力和治理框架日益成熟时,真正的瓶颈在哪里?调查报告明确地指出了答案:数据。
在部署AI/ML解决方案面临的关键挑战中,数据质量(占百分之十六)和数据可用性(占百分之十二)高居榜首,超过了技术基础设施、成本、甚至算法可解释性等问题。
这一发现具有深远意义。它表明金融AI的竞争已进入下半场。上半场是关于算法和模型的竞争,而下半场是关于数据生态的竞争。金融机构拥有海量数据,但这些数据往往被禁锢在陈旧的、彼此孤立的竖井式(Siloed)系统中,数据质量参差不齐,难以用于训练高质量的AI模型。
当人工智能应用从单个用例走向规模化、企业级部署时,它必然会触碰到遗留数据架构的天花板。低质量、碎片化的数据,已成为制约金融机构释放AI潜力的最大手刹。
这精准地解释了报告中的另一个关键战略洞察:当被问及哪些趋势最有可能在不久的将来与AI/ML产生互动时,高达百分之六十七的机构选择了开放银行/开放金融/开放数据。
这不是巧合。开放金融(Open Finance)正是解决数据可用性和质量问题的关键钥匙。开放金融通过标准化的API,要求机构安全、合规地打通数据孤岛,实现数据的互操作性。
金融AI的未来图景因此变得清晰:开放金融负责构建标准化的、流动的、高质量的数据燃料生态系统;而人工智能则是消耗这些燃料以创造价值的核心引擎。没有前者,后者的能力将受到极大限制。因此,金融机构在AI上的未来投资,必然需要与它们在数据现代化和开放金融生态建设上的努力协同进行。克服数据瓶颈,将是释放金融AI全部潜能的决胜点。如何应对这些挑战,把握数据与AI协同的未来?强烈推荐加入最具价值知识星球走向未来 (https://t.zsxq.com/xpWzq),探讨和学习生成式人工智能、大模型、AIGC、AI芯片和机器人在金融领域的应用。立即加入走向未来知识星球,一起走向AGI的未来。
2024年的调查数据清晰地展示了金融服务行业在人工智能浪潮中的独特演进:从利用预测型人工智能构建坚实的防御体系,到审慎地利用生成式人工智能探索内部赋能。
这一保守而协同的策略,反映了金融业作为信任基石的深刻自觉。它没有被GenAI的浪潮冲昏头脑,而是选择了一条先内后外、风险可控的路径。
然而,两个巨大的挑战横亘于前:第一,对第三方供应商的依赖与验证能力的脱节,正在形成一个亟待弥合的治理鸿沟。第二,遗留的数据架构已成为释放AI规模化价值的最大瓶颈。
展望未来,金融AI的演进将不再仅仅是算法的胜利,而是一场系统性的变革。它依赖于一个在开放金融理念下更流动、更高质量的数据生态,也依赖于一个与监管机构共同进化的、基于原则的治理框架。金融机构正在这个新的坐标系中,谨慎而坚定地从防御走向全面的战略赋能。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。