AI数据风险陡增 安全可控成共识路径

- 编辑:admin -

AI数据风险陡增 安全可控成共识路径

 本报记者 谭伦 北京报道

“从数据层面看,现在人工智能应用效果很大程度上依赖于数据质量,但由此会带来隐私泄漏、数据确权等问题,如果解决不好数据安全的问题,人工智能产业也不可能健康地发展。”在日前举行的2021北京智源大会上,中国科学院院士、清华大学人工智能研究院院长张钹教授表示,人工智能(以下简称“AI”)技术很容易被误用,这种脆弱性也使得AI系统容易受攻击,被欺骗,给AI技术的滥用造成可乘之机,造成人工智能的安全问题。

AI数据安全问题显然就是其中之一。IDC数据预计,到2024年,中国人工智能软件及应用市场规模将达到127.5亿美元,2018~2024年复合增长率达39.0%,市场快速发展之下,安全风险日益严峻。

《中国经营报》记者注意到,在今年的315晚会期间,包括科勒卫浴、宝马4S店等在内的商户违规采集用户数据信息被曝光,使得应对AI数据安全风险陡升的讨论再次被推到产业聚焦前沿。

2020年发布的《人工智能数据安全治理报告》指出,随着人工智能在产业和技术上加快渡过“探索期”,逐步进入“成长期”,人工智能与数据安全更加深度交织。数据安全问题已然成为人工智能突破关键转轨期所必须解决的重要制约瓶颈。

为此,张钹提出,发展第三代人工智能,通过融合知识驱动和数据驱动的前两代人工智能技术,利用知识、数据、算法和算力四大要素,建立新的可解释和鲁棒性的AI理论与方法,发展安全、可信、可靠和可扩展的AI技术。


迈向第三代人工智能

“第三代人工智能”的提法由张钹在2020年纪念《中国科学》创刊70周年的专刊文章《迈向第三代人工智能》中首创。据其介绍,人工智能自1956年诞生以来,至今一直存在符号主义与连接主义两种相互竞争的范式,前者到上世纪80年代之前一直主导着AI的发展,后者从上世纪90年代逐步发展,并逐步成为主流。但两种范式的本质仍是模拟人类心智(或大脑),不能触及人类真正的智能。

为此,张钹提出,应发展一个全面反映人类智能的“第三代人工智能”,其具备知识、数据、算法和算力四大要素,既能最大限度地借鉴大脑的工作机制,又能充分利用计算机的算力,使得人工智能在某些方面可以超越人类,成为一个更强大的AI系统。

据记者了解,在该系统中,安全、可信、可靠和可扩展被认为是最重要的特征,而由清华人工智能研究院孵化而来的瑞莱智慧科技有限公司(以下简称“瑞莱智慧”),正是践行第三代人工智能这一理念最重要的产物。截至目前,瑞莱智慧已经推出系列涉及AI安全的平台产品。

在本次大会上,瑞莱智慧CEO田天向记者表示,人工智能产业正经历从高速增长向高质量发展转变。“目前的AI不仅关注性能的发展,也开始更多关注安全与可控两个层面的发展。”田天表示。

在安全层面,田天认为主要包括数据安全与算法安全,前者针对数据泄露和数据投毒等隐患,后者则重在提升算法的鲁棒性与可靠性;而在可控层面,不仅包含应用层面的合规可控,更指核心技术的自主可控。“安全、可控是发展第三代人工智能的核心基准,也是加快人工智能高质量发展的有力支撑。”田天强调。

据田天介绍,目前围绕打造安全可控的人工智能基础设施,瑞莱智慧研发基于自主创新的一系列核心技术,围绕数据安全、算法可靠、应用可靠一系列的人工智能算法和平台,成为迈入国内第三代人工智能大潮的企业代表之一。


标准与法规需协同跟进

抛开技术外,在中国信息通信研究院安全所信息安全研究部主任魏薇看来,保障AI数据的安全可控,还需要在行业标准、法律规范等多个维度协同推进。

清华大学人工智能治理研究院副院长梁正认为,与国际算法治理经验相比,国内的治理依据虽然初步形成,政策引导、标准指南、法律规章等相继发布,但尚未形成完善的治理体系。

对此,梁正给出了“分领域、分级”的指导建议,他表示目前应关注个人信息的算法决策,未来再聚焦自动驾驶、医疗等涉及到人身安全的高风险领域。同时,在治理过程中一定要区分算法本身与算法不当使用造成的问题,找准问责主体,针对性地解决。

“不管从开发、设计、部署上,应该坚持安全、公平、透明和隐私的原则,不能完全归结于算法的黑箱,应该设立基本的权利准则设定规范,在这个基础上去开发和改良相应的算法。”梁正强调。

在法律层面,据中伦律师事务所合伙人陈际红介绍,针对AI数据的安全,各国都在加强隐私保护、数据保护的立法。我国从2020年下半年开始,加快了个人信息和数据安全的立法,目前《个人信息保护法》《数据安全法》都在审议阶段,未来将与此前的《网络安全法》构成我国数据保护与监管的“三驾马车”。