央广网北京4月27日消息(记者 牛谷月 万玉航)“谁能把握大数据、人工智能等新经济发展机遇,谁就把握了时代脉搏。”正值中国全功能接入国际互联网30周年之际,专家学者齐聚中关村,在国家科技创新的出发地、策源地、主阵地,聚焦数字时代数据要素安全治理,交流前沿理念、分享研究成果,深化前沿领域数据安全治理效能。

数据作为数字时代的关键生产要素,日益成为重组全球要素资源,重塑竞争格局的重要变量。同时,国家间数字经济发展还不平衡、不充分,数据要素价值尚未充分释放,数据安全、个人信息保护、技术伦理等问题突出,数据安全治理与发展成为全球关注的热点问题。什么是数据治理安全可信?人工智能大模型的安全治理重点在哪儿?生成式人工智能的数据安全治理如何平衡?他们这样说——

“数据安全是永远的命题,数据治理一定要安全可信”

在万物互联的数字智能时代,网络安全防护技术不断升级迭代,可信计算正逐步成为网络安全领域主流技术之一。

“我们必须认识到数据安全是永远的命题,一定要‘安全可信’。”中国工程院院士沈昌祥列举包括美国输油管道遭黑客攻击在内的一系列网络安全事件所带来的严重后果。“安全不是防火墙杀病毒一样,有病毒、有黑客、有漏洞,不是这样表面的‘安全’。”他指出,这种网络安全系统难以应对利用逻辑缺陷的攻击,反而增加了自身的脆弱性,因此应该建立主动免疫的安全保障体系,从被动防御转为“主动免疫”。“安全可信,一定要理解安全的实质,才能理解安全可信,实现安全可控。”沈昌祥表示。

沈昌祥认为,数据安全治理需要做到全程管控,实现六个“不”:首先让进攻者“进不去”,进去后“拿不到”数据,即使进攻者拿到数据也白拿,因为数据被加密“看不懂”,并且系统带有自动免疫功能,让进攻者“改不了”数据。同时,需要保证设备“瘫不成”,能在发现故障后及时采取措施确保稳定运行,最后是确保行为可追溯“赖不掉”。

“达到这‘六个不’的效果,才能使得数据安全治理达到有效的目标。”沈昌祥介绍,经过三十多年的发展,我国已经形成完整的产业链,构建了比较完整的新型产业空间。据悉,经过长期技术攻关,中国形成了自主创新的主动免疫可信体系,开创了可信计算3.0时代。

如何让“人工智能不作恶”?

数字经济蓬勃发展背景下,数据爆发增长,海量集聚,乘数效应日益凸显,以生成式人工智能为代表的数字技术正在以前所未有的速度、广度和深度影响和改变着我们的生活。同时,人工智能大模型深刻改变着信息和知识的生产方式,与之而来的数据泄露、虚假内容生成等安全风险也已引起广泛关注,生成式人工智能的应用和治理已成为国际社会面临的共同挑战。

欧洲科学院院士、清华大学人工智能研究院常务副院长孙茂松指出,原则就是让“人工智能不作恶”。他指出,生成式人工智能生成数据能力非常强,以它的算力,如果我们不进行治理,那人工智能生成的内容将很快超越人类写的内容。“但是人工智能写的内容会有很多与事实不符的现象。我们的大模型如果用它再来训练,这就麻烦了。”

清华大学计算机科学与技术系教授、人工智能研究院基础模型研究中心副主任黄民烈指出,过去做数据处理时,只需把一些不好的、有害的数据过滤掉,清洗干净就可以了。但生成式人工智能是一种生成式的模型,它会通过训练去组合,去生成新的内容,这些新内容可能在过去的语料里根本没有出现过,但它依然是有害的。“在生成式人工智能时代,我们在安全层面面临的是不断组合和创造新的数据安全风险问题,彻底解决这种风险需要算法和工具支撑,而不是靠人,或者靠一些静态的方法去做一些相对固定的检测。”

生成式人工智能在带来风险的同时,也带来了巨大的价值。除了让人工智能“不作恶”,如何让人工智能“向善”,也是我们面临的重要议题。

英国皇家工程院院士、欧洲科学院院士、香港工程科学院院士、香港科技大学首席副校长郭毅可指出,近年来,全球范围内的国家纷纷出台了涉及人工智能的立法和政策。然而,大多数国家在制定相关法规时都采取了谨慎的态度,避免过度限制人工智能的发展,以免阻碍创新和进步,这彰显了国际社会对数据安全治理的重视。

值得注意的是,孙茂松认为,生成式人工智能并不是只是给我们在治理上带来问题,生成式人工智能同时也为安全治理提供了新的更有效的手段。孙茂松举例:“现在数据里面有很多隐私问题,但我们可以用生成式人工智能生成符合真实情况的数据,但同时规避掉用户真实的隐私数据。所以,实际上生成式人工智能对我们数据治理也有非常重要的正面推动作用。”

让人工智能“装好刹车再上路”

在人工智能演进的浪潮下,如何预防数据滥用的问题?如何保障生成式人工智能的数据安全?清华大学苏世民书院院长、公共管理学院学术委员会主任薛澜表示,顶层设计的治理原则、具体的法律法规,和企业内部的机制建设缺一不可,需要共同组成一个“刹车”系统,来保障我们的人工智能规范“上路”。

在薛澜看来,这套体系应分为“上中下”三层。目前我国在人工智能管理规范体系的建设上走在了世界前列。2019年国家人工智能治理专家委员会发布了《新一代人工智能治理原则——发展负责任的人工智能》。这8项具体的要求,为所有的全社会的从技术的开发商、技术的应用商、社全社会的公民,在应用人工智能技术开发人工智能技术的过程中提供了基本原则。

到2021年,《新一代人工智能伦理规范》的发布,在顶层设计的角度为人工智能相关的数据安全提供了方向。《个人信息保护法》等法律法规的出台也扮演了基础性的制度保障角色。

针对具体领域,还要依靠具体的法律法规来规范。“大家知道此前一个‘骑手困在算法中’的报道吧?实际上在这个事件之后,相关部门专门出台了关于算法的规制,要求这些算法合理保护劳动者和消费者的权益。再比如ChatGPT出来以后,生成式人工智能发展极为迅速,我国去年4月份就在全球第一个就出台了关于生成式人工智能的管理办法征求意见稿。在收集各方面反馈之后,我们去年8月份就正式开始实施相关的管理规范了。”薛澜说。

具体到应用层的平台企业维度,薛澜表示,“我们也鼓励企业内部加强内部的机制的建设,成立各种各样的伦理委员会,来保证在企业内部的这种技术应用的过程中,符合我们讲的这些原则和法律法规。希望通过这样一个综合性的体系来保障我们的人工智能规范‘上路’。”

在人机共生的时代,我们将通过数据治理以及安全可信的人工智能,携手创造出充满无限可能的未来。