信息网_www.520link.cc

信息网 > 热点信息 > 正文

AI立法进行时|AI安全评估进行时,何以回应实践

网络整理 2024-03-18 10:23

(原标题:AI立法进行时|AI安全评估进行时,何以回应实践困惑?)

一段时间以来,人工智能飞速发展,无所不知、侃侃而谈。与此同时,人工智能发展伴随而来的安全问题逐渐提上日程。安全评估成为当下人工智能治理的环节之一。

如何理解安全评估?作为安全评估主要参与方的企业,又该如何回应安全评估落地中的各种问题?近日,由中国社会科学院法学研究所主办,南方财经合规科技研究院等承办的人工智能安全风险和法律规制研讨会在京举行。在人工智能安全评估主题论坛上,来自业界、学界的专家,就人工智能安全评估相关内容建言献策。

AI安全评估是什么?

加强技术风险管控、发展安全的人工智能已经成为各界共识。从传统的风险评估角度来看,人工智能安全需要从资产、脆弱性、风险、威胁等角度出发,对于信息系统进行安全性评估。

与传统人工智能风险评估相比,人工智能安全评估又有何不同?有企业专家在发言时表示,人工智能的安全评估,除关注语料安全、模型安全外,还可能涉及拒答题库的设置,关系到文化、宗教等各方面的内容。

日常实践中,抽象的安全,尤其是人工智能安全如何评估?

公安部网络安全等级保护评估中心测评部副主任袁静表示,以生成式人工智能安全评估为例,从网络安全等级保护的视角出发,不仅要关注大模型的模型安全、数据安全,还应将大模型看作对外提供服务的系统,进行安全考量。

在她看来,人工智能安全评估需要关注基础设施、面向公众的应用用户、AI特定风险、个人信息保护、模型保护、生成内容安全、供应链管理七个方面。“总体来看,针对大模型的安全评估,在传统的访谈、核查以及测试的基础上,应该增加固定数据集的测评和红队模型的测评两类安全的测评方法。”袁静说道。

有企业专家表示,考虑安全评估是一种手段和办法,要将安全合规贯穿于人工智能服务或者应用生命周期的全过程。

落地实践存有困惑

安全评估并非新鲜事。以数据出境流通为例,在满足相关条件之下,企业如有特定数据出境的需求,在满足特定条件下则需完成数据出境安全评估。

具体到人工智能领域来看,2018年发布的《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》要求互联网信息服务提供者在满足相应条件下自行开展安全评估。今年7月,《生成式人工智能服务管理暂行办法》(以下简称《暂行办法》)第十七条规定,提供具有舆论属性或者社会动员能力的生成式人工智能服务的,应当按照国家有关规定开展安全评估。

具体到安全评估落地实践来看,不少企业在安全评估过程中对于相关细节和标准仍存有疑惑。

有企业法务总监邓斌表示当前实践中存在一些疑惑。

一是,《暂行办法》所提及的安全评估到底是什么?这需要更加明确的机制和规则予以确认。其中需要厘清安全评估与双新评估的区别和联系。需要清晰章程明确安全评估的具体内容,如是否包含等保测评、伦理审查的内容。

二是,安全评估的监管牵头部门是谁?这需要明确安全评估的牵头部门和负责部门,统一出口,避免出现多个部门、不同申报材料和侧重点的情况。

三是,安全评估谁来发起?这需要解决安全评估的实施主体问题,对服务提供者予以明确和限定。当前的困惑在于,不少大模型厂家会将大模型的产品或者能力卖给B端客户,如通过API接口或者SDK方式,B端客户会在此基础上进行二次开发,形成新的交互界面。在此情况下,厂家和B端客户谁是服务的提供者?谁来负责安全评估的工作?

此外,需要明确安全评估性质,是采用审批制还是备案制,以便给予企业稳定预期。

四是,安全评估主要包含哪些内容?需要明确安全评估内容的具体标准。语料安全方面,如果涉及知识产权保护,是否可通过来源安全或者企业承诺书确认等方式来保障。内容安全方面,对于一般企业而言,在建立安全审核机制时面临较高的标准和较大的成本,一定程度影响了大模型在各行各业的推广应用。

当下,人工智能已成为国际竞争的新焦点,全球竞速之下,不发展就是最大的不安全。

“如果安全与发展并重,一定程度上是否可以先促进发展,让子弹飞一会儿。这样先让大模型发展一段时间,最后再看是否有所担心的失控风险,同时根据实际情况完善监管机制。”上述企业法务总监说道。

以评估机制保障安全

建立、完善人工智能安全评估配套机制,成为人工智能安全治理的一个重要步骤。

星纪魅族集团数据合规执行总监朱玲凤认为,安全风险评估机制需要满足三个条件:

首先,安全评估机制需要具备国际互操作性。因为人工智能是国际竞争力的重要组成部分,人工智能安全评估机制应当保障我国企业的竞争优势,不增加在国际市场上的合规成本,统筹在总体国家安全观下。

其次,评估机制必须要能够准确识别出基础模型所带来的极端风险。在极端风险评估方面,需要判断是否具有风险能力、对齐能力以及是否可以嵌入整套风险治理框架。

最后,安全评估机制需要在企业层面能够落地实践,这才能真正有效地控制人工智能风险。因此,应当提供整套风险评估和处理机制,需要具备详细的细节和相应的具体实操技术措施,以帮助企业识别和控制风险。

无论是安全评估还是安全评估机制的建立,其最终目的都是为了保障人工智能安全有序发展,保障人类福祉的最大化。安全评估只是开始,对于企业而言,最重要的是将安全纳入日常业务和日常工作流程之中。

小米集团法务部高级法务总监陈一夫介绍了所在企业在保障安全方面的一些工作。据介绍,其所在的企业坚持业务责任制,在保障安全的企业合规建设方面设立三道防线。一是责权一致,风险是经营行为的伴生品,一线业务部门负责识别和管控风险,将风控作为业绩目标。二是设置内部监管部门,如设立安全隐私委员会和科技伦理委员会,提供框架、流程、工具、技术和支持,确保合规和风险管控落地在业务一线,进行监控确保风险在可控范围,确保风险定级、评估在集团内的一致性。三是将对集团安全的运转纳入审计体系、质量管理体系,确保集团管理体系和日常合规运营处于有效运作中。

Tags:[db:TAG标签](632742)活动(99)系列(23)祖国(105)我和(64)我的(66)开幕(8)成果展(2)

转载请标注:信息网——AI立法进行时|AI安全评估进行时,何以回应实践

搜索
网站分类
标签列表