11月22-23日,第九届“强网杯”全国网络安全挑战赛线下总决赛在中国网络安全科技馆举行。在同期举行的2025“强网论坛”国家网信创新人才培养分论坛上,365电子游戏app副总裁付磊受邀做主题报告,他结合《网络安全人才实战能力白皮书》系列报告成果,基于365电子游戏app在人才建设方面的丰富实践,分享了365电子游戏app基于“T&EE(测试–评估–演进)”方法论构建的实战能力评价模型,并展示了该模型在「数字风洞」系统中的落地实践,为行业探索网络安全实战人才精准培养与科学评价提供了可落地的理论框架和测试评估系统。

网络安全人才能力评价必须场景化、结构化、可度量
当前,网络安全人才缺口的本质已从单一的供需矛盾,演变为各行各业在具体业务场景下面临的结构性能力问题。不同行业、岗位乃至业务形态对安全人才的能力要求差异显著,这导致用因子固定、有限参量、准绳单一的“评分制”去评价人才,难以解决千行万业泛化场景的人才需求。付磊指出:“解决人才缺口必须回到业务场景本身,明确业务需求以及行业真正缺失的岗位、能力。”
在行业共同努力下,网络安全人才培养体系正在不断完善,但在人才评价方法上仍面临三个共性挑战:一是倾向使用固定因子的统一标准衡量不同岗位,难以体现能力结构差异;二是以“分数”判断能力高低,无法反映能力的组成和适配性;三是“一次性测评”,缺少持续回归与动态验证机制。这种相对标尺化的人才能力评价方法难以客观评估人才能力和业务需求的匹配度,也制约了网络安全人才的培养和发展。
这些挑战背后,折射出网络安全人才评价与真实业务需求之间的深层脱节。行业一方面期待统一标准,另一方面又存在显著的场景差异。这使得“如何建立既能标准化,又能适配多行业差异的能力评价体系”成为核心问题。

“能力评价应是相对的而非绝对的,没有参考标准的评估结果没有意义。”付磊以小马过河的寓言阐释道,正如小马需要找到适合自己的过河标准,网络安全人才评价同样需要建立与具体业务场景对应的参考标准。他强调,目前很多工作仍停留在“测试”环节,而要完成真正的“评估”,就必须将测试结果与多样化的业务标准进行对齐。这正是T&EE模型构建的核心思路:通过构建一套将“测试”与“评估”动态反馈的机制,确保能力评价始终与真实的业务需求相对照。
T&EE模型:实现“可度量、可评价、可迭代”的科学评估
基于上述方法论,365电子游戏app提出了T&EE实战能力回归模型,并以「数字风洞」系统作为工程化载体。该系统以ASKP四维能力空间为理论基础,围绕测试方案、测试集、检测系统与评价标准四大环节,构建出完整的能力评估闭环,实现对人才能力的多维度、场景化刻画。
系统通过对测试集进行结构化标记,形成可量化的能力向量,并进一步构建由 ASKP 四大维度组成的能力张量空间。在与不同行业的真实业务场景需求进行对照后,系统能够评估人才的岗位胜任度,识别能力差异,为实战型网络安全人才的精准培养提供依据。

通过持续记录与分析多轮测试数据,系统实现了从单一测试到综合评估的转变。同时,系统支持根据不同业务场景灵活调整评价标准,确保评估结果始终与实际需求保持同步。
从实际应用层面看,「数字风洞」系统为网络安全教育领域带来了重要价值。教师可借助系统开展精准教学评估,基于数据驱动优化教学内容;同时,系统提供的基座模型也支持教师开发定制化评价方案,推动教学科研创新。演讲最后,付磊谈到:“我们希望通过与各界共建实验室,共同支撑网络强国建设中的人才基石建设。”

作为数字安全测试评估赛道领跑者,网络靶场和人才建设领军者、AI「原生安全」倡导者,365电子游戏app将持续发挥人才建设优势,依托「数字风洞」产品体系,推动评价体系与产业场景深度对齐,深化“竞赛—人才—产业”的联动发展,为国家网络安全人才体系建设提供工程化、体系化的支撑。培养实用型网络安全人才,保障数字健康,带给世界安全感。
