日前,全国信息安全标准化技术委员会(简称:全国信安标委),首次正式发布《人工智能安全标准化白皮书(2019版)》(以下简称:《白皮书》)。《白皮书》由中国电子技术标准化研究院、清华大学、百度、华为、360、阿里巴巴等29家企事业单位共同编制。白皮书调研了人工智能发展情况,梳理了国内外人工智能安全的法规政策和标准化现状,分析了人工智能安全的风险挑战和属性内涵,研究给出了人工智能安全标准化体系框架,提出了人工智能安全标准化工作建议。


在AI模型安全领域,百度安全从安全验证、模型加固、对抗样本检测到模型鲁棒性形式化验证的整体解决方案AdvBox,作为人工智能应用安全实践案例入选白皮书,再一次证明百度安全在AI安全领域从学术研究到工业界解决方案研发的领先地位。
 
2017年我国发布的《新一代人工智能发展规划》中明确提出“要加强人工智能标准框架体系研究,逐步建立并完善人工智能基础共性、互联互通、行业应用、网络安全、隐私保护等技术标准。”《白皮书》提出完善标准体系、加快开展重点领域标准研制工作、推广应用实践、加强人才培养、建立预警机制及参与国际工作等六大建议。在推广应用实践的建议中,《白皮书》着重指出,应完善人工智能安全标准试点机制,选取试点企业,开展标准适用性和实施效果评价,在应用实践中建立一套工作思路,既而推动人工智能安全标准化工作高速、高质量发展。
 
在过去几年中,百度安全结合国家科研体系框架开展了大量AI安全前沿研究工作,学术论文多次入选全球顶级学术界、工业界安全会议。在此基础上,AI安全行业解决方案相继开放,在推动AI安全技术应用落地的同时,也为理论研究提供了实地验证环境。2019年,百度人工智能安全平台入选“工信部网络安全技术应用试点示范项目”。
 
《白皮书》将人工智能安全标准体系划分为基础、数据、算法和模型,技术和系统,管理和服务,测试评估,产品和应用等六个部分。其中,《白皮书》重点指出,算法模型是人工智能的核心,算法模型的安全隐患可能给人工智能带来致命的安全后果。自动驾驶是算法模型实时性较高的应用场景,要求模型随时可用,如果当数据进入人工智能核心模块前受到定向干扰,将会导致及时错误判断。考虑到人工智能算法模型面临鲁棒性、对抗样本攻击等方面的安全挑战,建议从人工智能算法模型安全需求出发,研究人工智能算法模型安全指标,研制算法模型安全评估要求和可信赖类标准。

人工智能安全标准体系.png
人工智能安全标准体系
 
近年来,百度安全研究员围绕AI算法模型安全展开深入研究。研究成果表明,对抗样本攻击已经从实验室环境真正进入了网络对抗实战,构成对个人隐私、财产安全、交通安全和公共安全的威胁,制约了人工智能在各行业的可信健康发展。针对对抗样本的产生涉及深度神经网络的可解释性等基础问题,业内目前还没有彻底的解决方法。百度在人工智能落地的过程中,逐步形成了从安全验证、模型加固、对抗样本检测到模型鲁棒性形式化验证的整体解决方案——Advbox,为业内首创且全面开源代码,目前已应用于百度深度学习开源平台PaddlePaddle及当下主流深度学习平台,可高效地使用最新的生成方法构造对抗样本数据集用于对抗样本的特征统计、攻击全新的AI应用,加固业务AI模型,为模型安全性研究和应用提供重要的支持。这套解决方案目前同时应用于针对Deepfakes“换脸术”的AI打假,以及AI安全模型鲁棒性基准检测,为AI模型多达15种对抗安全(security)和功能安全(safety)指标提供标准化度量,为国内首家开源的鲁棒性基准检测工具。

对抗样本检测流程.jpg

对抗样本检测流程


Advbox开源地址:

https://github.com/advboxes/AdvBox
 

百度安全的研究证明,人工智能时代不仅要面对曾经的云管端的安全问题,机器学习算法自身的安全性亦存在漏洞,存在现实威胁性。百度安全于2018年将首创的七大技术——KARMA系统自适应热修复、OpenRASP下一代云端安全防护系统、MesaLock Linux内存安全操作系统、MesaLink TLS下一代安全通信库、AdvBox AI模型安全解决方案、MesaTEE下一代可信安全计算服务、HugeGraph大规模图数据库——开源汇成AI安全“七种武器”,全面解决云管端以及大数据和算法层面的一系列安全风险问题,实现由传统安全时代的强管理向AI时代的强技术支撑下的核心管理的转变,全面应对AI时代下层出不穷且日益复杂的生态安全问题及挑战。


*


人工智能安全标准化白皮书.pdf