构建可信任的数字金融
中国大模型发展的新突破
前面四位主讲嘉宾来自于中国最大、最好的金融机构和科技大厂,他们的演讲非常有示范意义和指导意义。这里我就可信任的数字金融说一说自己粗浅的认知。
最近几个月,大家特别关注的还是中国深度求索发布的开源的DeepSeek-V3。全球大模型评比榜单、AI集成平台等不同机构给予DeepSeek-V3很高的评价,认为与GPT-4o性能不分伯仲,很多方面的表现位列全球前几名。中国其它的大模型也做得特别好,例如阿里巴巴的通义。
舆论更多关注的是财务因素。据财联社消息,DeepSeek-V3训练成本不到600万美元,而GPT-4o训练成本高达1亿美元。专业人士更加关注的是算法的创新,DeepSeek的算法优化包括MLA多头潜在注意力机制、MoE混合专家架构等。算法创新应该是我国未来人工智能发展的非常重要的、具有中国特有竞争力的领域,对金融机构来说意义重大。
国内市场特别关注高端芯片的自主化,我观察到的是去年11月华为批量出货的昇腾910B,其半精度(FP16)的算力、整数精度(INT8)的算力都比英伟达的A100略高一点,重要的是910B采用的是自主架构,能效比高于A100 25%左右。
前一个月我参加了另外一场研讨会,会上一位专家认为,DeepSeek是工程范式的升级,为AI推理开辟了“小数据+精算法”的高效路径,颠覆了大模型必须依赖巨额投入的传统认知,对于我国AI发展具有战略意义。另一位专家认为,DeepSeek并没有否定尺度定律关于大模型规模与性能正相关的核心逻辑,通过效率革命拓展应用边界。
我个人认为,中国主导的算法创新和高端芯片突破应该是我国独立自主、节约高效的人工智能发展道路上的里程碑。国内的芯片企业、云平台、电信运营商、国家超算互联网平台都在迅速进行适配,形成了模型即服务、侧端部署等应用模式,并用于优化垂直模型。
AI技术的陷阱与挑战
虽然看到了这些进步,但我们还要特别关注,生成式AI和推理式AI的技术陷阱依然存在。归纳下来主要是几个方面。
首先,存在比较突出的安全风险。例如,国家网络安全通报中心3月初通报了大模型工具Ollama在本地部署DeepSeek等大模型时的安全风险:(1)无鉴权机制,未授权用户能随意访问模型,调用服务,获取信息;(2)数据窃取,攻击者通过特定接口可获取模型的license等敏感数据;(3)恶意攻击,攻击者可利用Ollama框架历史漏洞实施数据投毒、参数窃取、恶意文件上传和关键组件删除等操作,影响模型服务的核心数据、算法完整性和运行稳定性。
其次,并没有消除模型幻觉。测试发现,Grok-3、GPT-4、DeepSeek-V3都存在一定程度的幻觉率。
第三,到现在为止还未能证实可以摆脱模型歧视、算法共振、隐私泄露等技术陷阱。
第四,引起更加复杂的解释性难题。解释性有助于增强AI信任,减少对数据黑箱的担忧,有助于发现模型偏差,管控决策风险。金融机构对于这一问题会非常关注。AI模型的算法创新,当然提高了模型的能力,同时也增加了模型的非线性、随机性和不确定性,很难找到一种通用的特别是监管机构认可的解释方法。
第五,最新发现的疑似AI智能体的网络攻击。前几天哈尔滨公安部门公布亚冬会赛事信息系统遭到境外网络攻击的事件,确认有美国国家安全局的特工参加,技术上是第一次使用AI智能体发起网络攻击,从攻击代码来看,这次攻击采用智能体技术进行漏洞探寻、流量监测,部分代码明显是AI书写,可在攻击过程中自动、快速编写动态代码进行实时攻击。这意味着数字黑客已成为网络攻击工具,对国家安全防御体系构成新的挑战。
数字金融创新的挑战与目标
我在银行工作了几十年,金融是安全性和可信度要求近乎苛刻的行业,需要保证金融资产和金融数据的安全,保证金融交易和金融服务的可靠性,保证账户处理和账务记录的准确性。三十年前,我们开始的以大中心、集中化为特征的科技金融,已经经过了实践的检验;近十年兴起的以分布式、智能化为特征的数字金融创新还在发展。在信创的过程中,我个人认为数字金融的创新必须统筹安全和效率,实现从可用到好用,从替代到领先的跨越。
基于现阶段的实践,我认为数字金融的创新,并不要求金融类的垂直模型自身具备解决数学、编程、创意等复杂问题的高超能力,智能化数字金融创新的基本点是可信任,能够主动防范并跨越AI陷阱,实现算法创新中的模型可信,达到金融模型解释性的基本要求,让客户信得过,让市场信得过,也让政府监管机构信得过。
可信任数字金融的构建路径
第一,高可靠性。金融机构部署AI模型,必须配置防火墙规则,启用先进的密钥管理工具,采用零信任架构,禁用危险操作接口,及时更新安全版本修复安全漏洞,既能抵抗恶意攻击,又能避免偶发性安全隐患。
金融模型的性能应该达到安全可信的基本要求,这里提出几个“特别注意”:用于市场分析和预测,要特别注意克制模型幻觉;用于客户筛选和分层,要特别注意避免模型歧视;用于量化交易和投资顾问,要特别注意防止算法共振;用于身份识别和验证,要特别注意抵抗AI虚假;用于线上线下客户服务,要特别注意消解机器冰冷;用于凭证识别和账务处理,要特别注意达成零误差,实现非结构化数据处理百分之一百的正确率。
第二,可解释性。具备可解释性,能够展现完整的推理路径和逻辑,实现从结果正确向过程可解释的跨越,是金融领域AI模型应用的关键要求。应该将模型行为转化为可理解的规则,应用可视化工具以图形方式展示模型的技术特征和生成过程,同时应用注意力机制标识关键输入和关注重点。
第三,合法性。金融智能体(Financial-Agent)适用于市场分析、风险评估、投资顾问、财富管理、量化交易、产品定制、内部审计等专业领域,技术上通过提供行业最佳流程、最佳标准的数据支持,可以培育具有自主感知、学习、行动和决策能力的金融智能体,确保在复杂场景中达到可信任的专业水准。制度上需要确立金融智能体的法律地位,明确金融智能体的行为边界,明确金融机构管理者的决策责任,明确金融智能体与金融客户的法理关系。
第四,经济性。金融业涵盖商业银行、保险、证券投资、财富管理等不同领域,同一领域的金融产品、金融服务、金融管理的需求大同小异。用海量数据预训练行业级金融模型并持续调优,再根据不同需求调适差异化应用,定制企业级金融模型,可以有效降低金融模型开发的边际成本,扩展金融模型的应用范围。
应支持有实力的科技企业和金融机构深度合作,领军开发行业级金融模型和应用软件,为中小金融机构提供企业级金融模型服务和软件服务,共建数字金融生态圈,实现高效率、低投入、个性化的数字金融创新。
作者李礼辉系中国银行原行长,本文为作者在2025·金融四十人年会暨闭门研讨会“人工智能时代的金融与科技”平行论坛二“智能时代的金融业:创新,变革与监管”上所做的主题交流。文章仅代表作者个人观点,不代表CF40立场,未经许可不得转载。