日前,世界数字科学院(WDTA)在联合国日内瓦总部正式发布AI STR系列新标准《AI智能体运行安全测试标准》。该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学、美国圣路易斯华盛顿大学等二十余家国内外机构、企业及高校共同编制,为全球首个单智能体运行安全测试标准。2025年,被称为“智能体元年”,AI智能体(AI Agent)凭借着深度思考、自主规划、作出决策并深度执行的能力,目前被广泛应用在内容创作、知识问答、流程优化等各环节。然而,这种技术突破也伴随着不容忽视的安全隐忧。据21世纪经济报道最新调研显示,超过70%的智能体从业者担忧AI幻觉与错误决策、数据泄露等问题,因为AI生成的内容往往包含事实错误,或者对指令产生误解。其中超半数受访者表示所在企业尚未设立明确的智能体安全负责人。
据介绍,《AI智能体运行安全测试标准》针对智能体跨越“语言墙”所带来的“行为”风险,首次将输入输出、大模型、RAG、记忆和工具五个关键链路与运行环境对应起来,构建了全链路风险分析框架;同时,细分了智能体风险类型,完善并创新提出了模型检测、网络通信分析和工具模糊测试等测试方法,弥补了智能体安全测试技术标准的空白。
业内人士分析称,《AI智能体运行安全测试标准》不仅提供了一套可行可靠的智能体安全基准,也为全球AI智能体生态的安全、可信和可持续发展增加了有益的探索。目前,部分标准的测评与认证已在金融、医疗等领域落地应用。此前,WDTA已发布3项AI STR标准,包括“生成式人工智能应用安全测试标准”“大语言模型安全测试方法”和“大模型供应链安全要求”,由OpenAI、蚂蚁集团、科大讯飞、谷歌、微软、英伟达、百度、腾讯等数十家单位的多名专家学者共同参与。
责任编辑:石旭
小手一抖把码扫,物联消息全知晓
2025-07-15
2025-07-14
2025-07-10
2025-07-14
2025-07-15
2025-07-11
2025-07-10
2025-07-16
2025-07-16