毕马威黄艾舟:从“全面重构”到“差异化破局” 金融AI进入分层演进新阶段
2026-03-25 07:03      作者:张漫游     来源:中国经营网

中经记者 张漫游 北京报道

3月24日至27日,博鳌亚洲论坛在海南博鳌举行。在今年议程中,“走进AI时代”成为重要议题之一。金融作为现代经济的核心,正处于这场变革的“深水区”。就在论坛前夕,中国人民银行召开2026年科技工作会议明确提出“深化业技融合,积极稳妥、安全有序推进金融领域人工智能应用”,为行业发展定下基调。

在创新与安全之间,金融机构如何找准战略重心?面对AI带来的效率革命与风险挑战,技术底座与风险管理体系又该如何进化?针对这些问题,《中国经营报》记者在博鳌论坛期间采访了毕马威中国金融科技主管合伙人黄艾舟。

分层推进 筑牢“稳敏双态”技术底座

《中国经营报》:央行科技工作会议为金融业AI应用划定了“积极稳妥、安全有序”的基调。在此背景下,今年金融机构在AI领域的战略重心主要落在哪里?

黄艾舟:对于金融机构而言,央行此次定调意味着金融领域的AI应用核心战略地位持续升级,在这一进程中,不同体量的金融机构鉴于其过往数字化转型基础和业务布局差异,AI战略重心各有不同。

对于头部金融机构而言,有望持续发挥技术、资金、人才和数据优势,推动AI应用持续深化,以全行级AI战略为引领,构建AI全栈技术能力,并将AI技术内嵌于业务流程和组织管理逻辑之中,实现全方位重构。

对于中小金融机构而言,在推动AI规模化应用和战略级转型方面,目前面临的挑战较大,既体现在资金、技术、人才等资源储备不足,也体现在IT系统建设、数据治理、合规内控等方面的基础较为薄弱,可能会通过与科技企业合作、接入第三方API等方式,降低转型成本,聚焦细分领域的AI应用升级实现差异化发展。

总体而言,在“严监管”的整体基调下,金融行业的安全底线必须牢牢守住,AI模型的全生命周期管理、数据使用规范,以及风险处置流程等必然是各家金融机构的AI战略重点之一。央行此次还提出统筹“远中近”目标,谋深谋实“十五五”时期科技工作,预计随着头部金融机构AI转型的标杆效应不断显现,中小金融机构的AI转型战略必将陆续跟上。

《中国经营报》:传统金融机构的集中式IT架构在面对AI的敏捷迭代时显得力不从心。金融机构应构建怎样的技术底座,才能既保障核心系统的稳定,又能灵活接入各类大模型,实现“稳敏双态”?

黄艾舟:AI技术仍在快速发展,异构算力、推理网关、RAG(检索增强生成)数据链路、LLMOps(大语言模型运维)、Agent(智能体)协作框架等新型技术能力的引入,给传统集中式IT架构带来的影响呈现出动态更新、日趋复杂的特点。由此,越来越多金融机构意识到需要整合分散的技术能力,统一技术栈并确保规范一致性,以便充分利用已有技术资源,及时适配大模型技术演进路线,避免技术过时或过度异构风险。

在建设方式上,全栈式、端到端的企业级数字底座或成为金融机构的必选,强调以云原生、分布式架构为主干,融合大数据与人工智能平台能力,通过“多平台融合、多技术栈融合、多工具融合”,打通从基础设施,开发平台再到场景应用的全栈链路,形成覆盖规划设计、开发测试、集成发布、运行监控、运维保障、灾备演练的端到端工作流。

这一方向也与监管导向高度契合。根据2025年年底发布的《银行业保险业数字金融高质量发展实施方案》,相关主体应当全面提升对多技术栈、复杂架构的管理水平,稳妥实施分布式、微服务改造,优化服务网格基础设施,增强基础平台产品化服务能力;探索低代码、无代码开发平台建设,促进架构及开发可视化;优化需求、研发、测试、投产、运营一体化协同机制,增强敏捷交付能力。

从“用好AI”到“管好AI”

《中国经营报》:AI在提升效率的同时,也放大了风险敞口。在利用AI进行反欺诈的同时,如何有效防范AI本身带来的新型技术风险?当前的应对机制是否跟得上风险演变的节奏?

黄艾舟:传统模型风险管理框架已不足以应对AI带来的新挑战。AI风险,特别是生成式AI,带来了诸如模型幻觉、数据投毒、算法黑箱等全新风险点。因此,风险管理必须升级为覆盖多模态数据治理、多源模型全生命周期管理、场景侧应用风险全面防御,以及可信AI治理的综合性体系。

具体而言,我们协助多家商业银行搭建的基于“可信人工智能”的风险管理体系,主要从四个层面构建防线:

一是多模态数据治理。建立覆盖数据全生命周期的安全闭环体系,以数据分级分类为基础,全程执行严格的安全策略,实现对数据风险的主动防御。

二是多源模型全生命周期管理。清晰划分模型从研究探索到退役的各个阶段,并为每个阶段设立客观的准入准出标准。在此基础上,从技术性能、业务效果、成本效益、安全合规四大维度对模型进行综合评估,确保引入和使用的模型“安全可控”。

三是场景侧应用风险全面防御。在真实业务场景中,AI风险具有高并发、强渗透的特点。这需要构建一个多层次防御体系:在环境层,实施沙盒化治理与“最小权限”联网原则;在模型层,通过领域知识图谱注入,实现推理过程的可视化追溯;在操作层,强化流程标准化与自动化,减少人工干预风险;在防护层,建立动态安全免疫体系,通过对抗演练持续优化模型鲁棒性(指系统在面临输入数据的变化、噪声、干扰甚至攻击时,仍能保持其功能和性能的稳定性和可靠性)。

四是前瞻性的可信AI治理。随着AI应用从局部试点走向规模化部署,金融机构亟须从组织层面主动应对。这包括统一AI应用的定义、设计清晰的AI风险管理机制、对AI应用进行风险分类并实施差异化管控,以及建立专门的AI模型验证方案。这一整套体系,旨在将风险管理从被动响应转变为主动免疫。

《中国经营报》:数据是AI的基石。在利用AI挖掘数据价值时,金融机构普遍面临哪些数据治理的短板?行业在构建高质量数据底座方面,又有哪些共性的解决思路?

黄艾舟:当前,金融机构在数据治理上普遍存在四大“拦路虎”:一是多源异构数据协同难,核心系统、外部API等数据源格式、标准不一,整合难度大;二是跨机构价值融合难,金融数据的高频、实时特性,使其在合规前提下实现跨行业、跨机构流通面临多重挑战;三是内部数据流通共享难,数据因系统、部门壁垒而碎片化,难以形成统一可用的知识资产;四是多模态数据知识转换难,大量合同、报告等非结构化数据蕴含丰富业务知识,但现有治理体系缺乏将其转化为高价值知识资产的成熟框架。

面对这些挑战,行业内的领先实践呈现出“系统性”与“工程性”并重的特征。系统性体现在,将数据全生命周期管理理念嵌入信息系统的各个环节;工程性则体现在,积极构建数据智能分析引擎及配套工具,确保数据处理的可追溯与合规性。

一个显著的趋势是,治理重心正从“结构化数据”向“知识类数据资产”迁移。由于大模型的输出质量高度依赖内部私有数据的输入,已有银行将知识类数据资产的治理作为应用大模型的前置条件。例如,通过对海量非结构化投研报告进行精细化切片,构建专业化的垂域知识库,以确保模型输出的可控性与可追溯性。

上升到行业基础设施层面,国家数据局正在推动的企业、行业、城市三类可信数据空间试点,为金融数据流通提供了新的可能。金融业作为资金融通的中介,在数据流通中能发挥关键桥梁作用。可信数据空间的建设,旨在解决数据源分散、跨主体流通风险高、数字鸿沟大等核心痛点,通过“区块链+隐私计算+动态使用控制”等技术,构建起覆盖“数据汇聚—安全流通—场景应用”的全流程体系。例如,“联邦学习+可信执行环境”的技术方案,就能在保护数据隐私的前提下,实现多方数据的安全协同建模,为金融AI应用注入更高质量的数据“活水”。

(编辑:杨井鑫 审核:何莎莎 校对:翟军)