近日,平安证券发布研报称,在2024世界人工智能大会暨人工智能全球治理高级别会议(以下简称“WAIC2024”)上,中国AI(人工智能)企业不仅在技术研发方面取得了显著成效,还在应用落地、生态构建等方面展现出强劲势头。中国AI企业在多个领域实现了突破,为全球AI治理和应用提供了宝贵的中国方案。
今年的WAIC2024,AI治理被置于前所未有的高度,而AI安全正是其中的重中之重。
“AI与安全,是数字化转型与可持续发展的必修课。”7月6日,奇安信董事长齐向东在大会相关论坛上表示,要积极构建高可靠人工智能安全体系,着力为用户提供有效的安全防护,既要用AI去驱动安全,又要做好AI自身安全,护航数字化转型与可持续发展。
“AI作为引领未来的战略新兴技术,已成为发展新质生产力、推动科技革命和产业升级的核心引擎。”中国数实融合50人论坛智库专家洪勇在接受《证券日报》记者采访时表示,随着AI的高速发展,尤其是生成式AI的突破,其复杂效应也不断显现,既释放巨大的技术红利,也衍生出超越以往范畴的挑战,涉及数据安全、伦理治理、算法歧视、能源环境、数字鸿沟等问题。
AI安全受关注
技术发展,协同共治。面对挑战,全球AI安全治理的进程正加速推进,已形成各国政府主导、国际组织积极推进、企业协同治理的多方参与格局。全球AI界正积极平衡“发展”与“安全”这一体两面,推动AI“两翼齐飞”。
近年来,我国先后出台《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等政策文件,构建针对大模型的“双备案系统”,推动人工智能安全、健康、规范发展。今年3月份,全国网络安全标准化委员会发布《生成式人工智能服务安全基本要求》,对前述政策文件中的数据来源合法、内容安全等合规要求的执行规则进行了细化,为生成式人工智能服务提供者在实践中开展安全评估提供了有效路径。
AI安全相关企业也抓住产业发展黄金机遇,乘势而上。聚焦国内,深信服、天融信、启明星辰、奇安信等公司均已发布安全大模型产品。腾讯、蚂蚁集团等也积极构建AI安全平台。放眼全球,微软在今年5月份已正式商用了MicrosoftCopilotforSecurity(一种基于生成式AI的安全产品),旨在“帮助用户以机器的速度进行防御”。谷歌去年也发布了网络安全专有大模型,并应用到了云安全能力中心。
据TheInsightPartner预测,2030年,全球AI安全市场规模将达到710亿美元,未来十年复合增速将达到29%。艾媒咨询数据显示,预计到2027年,我国网络安全市场规模有望增至884.4亿元人民币。
产业链公司在行动
中金公司认为,AI的安全风险涉及多个维度。AI体系安全是基础,包括软件、硬件等基础设施的供应安全,以庞大市场为基础的需求安全,应用部署安全等,需确保AI生态系统的独立性、完整性和抗攻击能力。数据安全是AI系统能否有效、高质量运行的关键。AI应用中广泛出现的错误与虚假信息、“信息茧房”、隐私泄露等问题也会对社会安全带来挑战。
针对上述问题,产业链上市公司正在行动。
“公司打造了以‘数据+AI’为核心,以‘应用场景’为依托的系列产品,形成了七大解决方案及产品线,其中就包括风险与合规产品线,涉及智能风控、监管报送等。公司信创及安全类产品也有利于降低信息安全风险。”法本信息相关人士在接受《证券日报》记者采访时表示。
永信至诚在投资者互动平台上称,公司发布AI大模型安全测评“数字风洞”平台,为AI大模型的持续演进和应用提供坚实的安全保障。在内容安全测评方面,平台借助检测插件,形成检测模板、检测场景分类和测评数据集,测评出各类安全风险;在系统安全测评方面,平台对目标系统进行深入的安全评估,帮助AI大模型系统迅速发现潜在的安全漏洞。
“除了在技术上推动AI系统的可解释性和可控性外,由于AI问题往往跨越国界,各方还应促进国际合作,建立全球共识,共享最佳实践。”洪勇如是说。
本届WAIC2024还发布了《人工智能全球治理上海宣言》,倡导共推发展、共护安全、共商治理、共汇民智、共享成果。呼吁各国加强交流和对话,推动人工智能更好地造福人类。
(李雯珊 刘晓一)