OneDegree Global 行政总裁叶沛贤在金融科技周上对21世纪经济报道记者表示,目前AI大模型对于非结构性数据的处理以及随之产生的安全性问题和道德风险是行业目前的痛点,需要有相应的工具检测相关风险。
叶沛贤指出,AI大模型的漏洞可能导致安全性问题。在实际测试的过程中,测试者可以利用AI大模型对使用者有求必应的特性,通过特定的询问技巧成功在询问中获取客户密码。同时,企业通过现有数据训练出的大模型,可能因为数据的特性而导致其回答具有歧视性。
叶沛贤表示,针对这些问题,其公司目前正在使用AI工具对AI大模型进行评估,通过非侵入性测试或是攻击测试,检查其中存在的安全性问题和道德风险,得出相应评分以及解决方案。目前,其公司人工智能模型已经积累了1200多个针对AI大模型的使用案例。
10月28日,香港特区政府发表了有关在金融市场负责任地应用人工智能的政策宣言(以下称“宣言”)和一系列其他措施,护航香港金融科技行业发展。宣言提出,作为国际金融中心,香港对在金融市场应用人工智能抱开放和审慎的态度。特区政府会采取双轨模式,以促进金融服务业采用及发展人工智能,同时应对网络安全、数据隐私及知识产权保障等潜在挑战。
叶沛贤表示,目前不同国家和地区都在陆续推出其对于人工智能的监管框架,虽然这些监管框架在一些细节上会有不同,但对于客户数据以及客户隐私保护的宗旨是一致的,不同监管机构对此都很重视。未来对于人工智能大模型数据安全保护的需求会持续增加。
AI在金融领域广泛运用
《21世纪》:你觉得人工智能目前在金融行业有怎么样的运用?有什么见解可以与我们分享?
叶沛贤:现在,人工智能在金融界的应用开始变得越来越广泛,在保险业中已经有广泛的应用,特别是在理赔流程等方面。过去,我们有大量的数据却不知道处理的方法。现在,利用类似ChatGPT的人工智能模型技术,达到加快理赔的速度和减少人工参与的效果。此外,在金融业的其他方面,人工智能也被用来进行个性化的财务分析,以提供更贴合个人需求的产品和服务。
《21世纪》:目前,人工智能在金融行业中有什么样的发展趋势?
叶沛贤:现在有一个趋势,各国政府都在逐步推出监管人工智能应用的框架,例如香港特区政府发表的有关在金融市场负责任地应用人工智能政策宣言。另一趋势是各行各业都在利用人工智能或者GenAI(生成式人工智能)技术,开发适用于本行业中的人工智能工具,比如金融行业的Robot Adviser(智能投顾),就是一种使用人工智能来帮助客户做出投资或财务管理决策的服务工具。
AI大模型要关注安全性和公平性问题
《21世纪》:你觉得现在全球的网络安全面临怎么样的挑战和风险?
叶沛贤:当前我们面临的挑战是,利用现有数据训练出的模型可能会有安全性和公平性的问题。例如,当一家银行将其资料输入人工智能来构建模型时,该模型会根据客户的习惯或者是特征提供答案,而这些答案可能是带有偏见的。因此,我们面临的最大担忧是,不知道如何控制构建的模型。
我们与金融机构合作时发现,他们所推出的LLMModel(大语言模型),使用者可以利用大模型用户友好性的特点,通过设计提示词以及不断提问的方式,最终诱使聊天机器人泄露用户密码等敏感信息。
针对这些安全性以及公平性的问题,我们目前是使用自己训练的AI模型来测试客户的大语言模型,以发现其中的漏洞。我们已经收集了超过1200个案例,这些案例是大语言模型可能出现风险的场景,并利用这些案例去验证和测试客户的模型。
《21世纪》:金融行业涉及的数据是非常敏感的,同时,这些数据又是金融公司宝贵的财富。你们如何帮助这些公司利用好这些数据,同时保护这些用户的隐私安全?
叶沛贤:在人工智能领域,客户隐私和资料安全重要性不言而喻,在整个负责任应用人工智能的框架中都占据核心地位。在客户推出最新的大语言模型之前,我们会对其模型进行评估,包括一些针对公司的非入侵性测试,为客户发现其中的漏洞,并为其提供初步的安全性评分。我们也有进行渗透性测试,以白帽黑客的角色攻击客户的待测系统,来识别出系统或平台的漏洞。
不同地区的AI监管存在共识
《21世纪》:谈及监管问题,现在全球的各个国家和地区针对人工智能数据安全都在进行监管。针对这些不同的监管框架,跨国运营的企业是否会面临挑战?
叶沛贤:由于各个国家和地区本身的地理环境和营商环境不同,它们在监管框架设计上可能会有所差异。不同国家和地区在监管上是存在共识的,数据安全和隐私问题都是其关注的核心问题。在这些方面,就我的观察而言,在监管层面不会有太大的差异。