易观数字化:今年以来,政府层面、金融监管层面在科技伦理治理的指导要求上持续加码,《中共中央办公厅 国务院办公厅印发关于加强科技伦理治理的意见》中,点明人工智能作为重点领域应完善科技伦理治理的规范和标准;《中国银保监会办公厅关于银行业保险业数字化转型的指导意见》中指出,要防范模型和算法风险,定期评估模型预测能力及在不同场景下的局限性,确保模型的可解释性和可审计性,防止算法歧视。人工智能治理的形势日益迫切,在这当中,人工智能是否可信被视为一种重要的品质,需要引起金融机构的足够重视。本文将从可信AI对于银行的重要性、关键特征、评估与验证方式、合作厂商选择等维度进行专题分析。
可信AI在银行数字化转型背景下的重要性日益凸显
银行业在数字化转型建设过程中,人工智能技术是构建数智化能力的关键领域,在技术创新与应用的同时,银行也面临着来自人工智能的风险挑战。
易观分析认为,人工智能的伦理风险、模型与算法风险、数据风险、隐私风险是当前银行需要应对的几类主要AI风险,人工智能黑盒性、不确定性、脆弱易攻击性造成的隐忧和不信任感,使银行在应用层面难以对其委以重任,在研发层面也难以进行有突破性的探索。因此AI是否可信、可控在当前以数字化能力为依托的转型背景下变得尤为关键,实现可信AI是银行科技能力建设布局的重要内容,是银行实现业务稳健发展的前提和有力保障。
可信AI的特征应结合银行实际应用需求加以延展
可信AI的概念在国内是由何积丰院士于2017年香山科学会议上首次提出,是指人工智能技术本身具备可信的品质。目前学术界针对人工智能治理已经发表了多篇研究论述,对其治理原则的普遍认识聚焦在透明、安全、公平、可问责、隐私保护几项特性中。结合银行业AI应用发展现状,易观分析认为,可信AI应当具备八大关键特征,即稳定性、鲁棒性、可解释性、安全性、公平性、普惠性、客户自治性以及可追溯性。
相应地,银行对于AI是否具备可信品质的考量应围绕自主可控战略要求,结合银行实际应用需求,如识别欺诈、隐私泄露、系统攻击、信贷风险、洗钱风险等风险场景,对可信AI的关键特征加以延展。例如,AI在进行智能决策分析、智能推荐、智能风控等活动时应做到透明可释、记录可溯,具备可解释性、客户自治性、可追溯性;在进行智能识别、智能问答等活动时应做到抗扰动、抗欺骗,且符合伦理道德与行业规范,具备鲁棒性、公平性、普惠性。同时,人工智能应具备抗风险、抗攻击和隐私保护的稳定性、安全性特征。
可信AI的评估与验证应基于场景视角小规模进行再规模化启动
可信AI本身作为技术能力的一种表现,是反映在算法和模型层面,而不是直接体现在业务流程或是客户体验中的。
易观分析认为,银行在推进人工智能相关项目时,应有的放矢地进行可信AI的评测。在银行业对可信AI尚无统一评测标准的情况下,银行应基于场景视角,选择有需求、有痛点、频次高、风险敏感等场景,以自主技术能力开展可信AI相关的评估与验证,并将其作为银行IT治理架构下的关键任务进行统筹考虑。评估与验证应以小规模验证为主,通过风险点和样本设置,重点验证可信AI一个或多个特征在单一场景下的表现,经小规模验证后再规模化启动。
对厂商的选择应关注其人工智能的整体能力表现
从目前人工智能领域的市场来看,可信AI相关的参与者和产品提供者以大型互联网公司、独立创业公司、渗透行业的供应商、产业背景公司为主,这些厂商具备了不同程度的可信AI研发能力,但并不存在单一提供可信AI产品的厂商。
易观分析认为,银行应从整体能力出发对厂商进行选型评价,并且将可信能力需要作为AI产品及解决方案的重要评价标准之一,结合自身场景需求选择合适的合作伙伴。