• 微信公众号

  • 官方微博

  • 官方抖音

课题研究
智能体在银行应用面临的问题和挑战
来源:本站     作者:但孝磊     发布时间:2025-09-18

  导读:在近期举办的金融街论坛系列闭门会上,国家金融科技风险监控中心创新部主任但孝磊围绕智能体在银行应用面临的问题和挑战,及“十五五”时期针对智能体的风险应对措施进行分享,并对智能体治理体系建设提出建议。他提出,应加快制定AI智能体金融应用安全规范,深化金融科技创新监管工具应用,关注金融科技伦理等系统性问题。

 

  第一,AI智能体在长期记忆上存在早期信息衰减、检索低效、上下文压缩失准等局限。这些问题可能削弱智能体应用的效果。例如,在反洗钱监测、消保审查等需追溯过往信息的场景,会因记忆缺陷导致证据链断裂,难以对金融业务全流程准确追溯。

 

  第二,智能体的感知、决策和执行过程追求自主化特性,因此相较于一般服务,会更多采集到个人的敏感信息。若在采集、模型开发和使用,以及传输过程中未做好充分的保护工作,可能会引起过度采集问题。尤其是,在银行网点的智能化升级过程中,尽管智能体应用能有效缓解智能化、数字化对老年人带来的数字鸿沟问题,但应注意公开的语音交互、图形交互可能导致敏感信息的泄露。

 

  第三,多个AI智能体协作时,易出现资源竞争、目标冲突和策略分歧等问题,若缺乏有效的协商调解机制,会降低智能体整体的稳定性。此外,基于大模型的智能体现阶段难以根除的“模型幻觉”风险,在多智能体协作中会沿着任务链条形成风险传导链,导致错误逐级叠加、风险持续放大。

 

  第四,在AI算法驱动下的智能体同样具有AI算法应用带来的羊群效应。要警惕多家银行采用相似的AI智能体,可能导致“算法趋同”。在经济下行期,同质算法可能同时调低对某类企业的预期,触发行业性投融资危机。

 

  为此建议,一是加快制定AI智能体金融应用安全规范,按照分级分类管理思路明确基本要求,根据应用场景、业务类型、服务群体、地理位置等提出差异化分级安全管理要求,筑牢防范新技术应用风险向金融领域传导的“安全网”。

 

  二是深化金融科技创新监管工具应用,以法律法规和监管规则为准绳划定刚性底线,运用信息披露、公众监督等方式设置柔性边界,支持金融机构、科技公司在风险可控的真实市场环境中充分验证AI智能体赋能数字金融高质量发展的有效路径。

 

三是关注金融科技伦理问题。人民银行发布《金融领域科技伦理指引》,明确建立负责任金融科技伦理治理体系的基本要求和行为准则。我们要尽快构建金融机构、科技公司、自律组织、从业者等协同共治的伦理治理格局,秉持守正向善原则,打造负责任的可信AI智能体。此外,针对当前算力使用需求不断攀升、算力资源分布不平衡不充分问题,建议加快构建金融领域算力网,让中小金融机构也能便捷地获取算力服务;针对可能引发的系统性金融风险,建议尽快联合产学研用各方构建起金融领域风险联防联控体系,不断提升金融系统韧性,合力解决包括大模型、智能体等新技术应用带来的系统性问题。

 

作者系国家金融科技风险监控中心创新部主任


新时代金融发展研究院由首都经济贸易大学 中国金融思想政治工作研究会主办
京ICP备2024077778号-2
电话:010-63366566 邮箱:jrfzzk@126.com
关于研究院
未经书面授权禁止复制或建立镜像
Copyright © 新时代金融发展研究院版权所有