在近期举办的金融街论坛系列闭门会上,国家金融与发展实验室副主任杨涛围绕智能体在金融领域的应用和挑战展开分享。随着人工智能、大模型在行业的快速应用和迭代,需要更多关注如何处理其未来的风险与挑战,做好价值与场景的平衡。大模型在金融行业的应用要把握好风险底线,避免在长期内低估、短期内高估人工智能应用的挑战。
第一,要推动完善AI大模型金融应用的制度和标准。当前,大模型在国家层面的制度规则在不断完善,但从整体来看,大模型在金融领域的应用仍存在一些制度规则的缺位。2024年5月21日,欧盟理事会正式批准《人工智能法案》,对不同风险层级的人工智能分层管理。其中,银行和保险的AI应用被归为高风险层级,需满足一系列严格的透明度与合规要求。尽管该监管政策存在一些争议,但其分层分类的监管理念在某种程度上可以借鉴。例如,通过分级分类策略帮助解决大模型的可解释性问题。在某些需要较高可解释性的产品和业务上,尽可能将黑箱背后的逻辑讲清楚。而面对那些不需要太高可解释性的产品和业务,则不一定需要解释原理,这就需要完善的制度和分级分类管理加以支撑。
第二,要做好创新风险与责任的明确与分担。伴随着数字化新技术的演进,大模型等新技术的持续应用为金融全产业链带来重构,原有金融机构的边界、金融业务的合作方式受到了颠覆式冲击,这带来了一些不确定性的风险积累。对此,要把握好创新与安全的跷跷板。关键在于明确潜在风险,实现各方参与者责任的有效分担。例如,可借鉴美国跨部门监管机构联邦金融机构检查委员会(FFIEC)的实践,通过标准和规则建设,推动金融与科技融合过程中的参与主体各司其职、风险自担。
第三,要理性看待大模型在金融领域应用的功能与价值。从技术角度来看,大模型的金融应用逐渐体现出较高的灵活性和实用性,结构小而精,向轻量化方向发展。在现实中,不同金融机构的资源禀赋不同,在专业性、成本控制、价值追求方面存在差异。对于众多小金融机构而言,数字化时代的马太效应将会越来越突出。因此,金融行业在拥抱大模型的过程中,例如在Agent方面的布局,要避免一哄而上。要探索真正必要的数字化手段,短期内降低预期,长期持续稳定健康发展。
第四,要提升监管科技和智能监管的能力。面对大模型对金融业务、金融产品、金融活动带来的深刻影响,需要提升智慧监管能力、改善监管流程的数字化水平。当监管部门拥有更多技术手段,就能有效实施穿透式监管,减少对技术的担忧。



