无论你是否愿意接受,人工智能都将在2026年改变网络安全策略。
托管安全服务提供商Bridewell的首席执行官Anthony Young表示:"回到2020年,预测人工智能将重塑防御策略似乎过于乐观;而今天看来,这些预测显得过于保守了。"
尽管目前仍难以准确量化人工智能在现实世界网络攻击中发挥的确切作用,以及这些攻击的严重程度,但很难反驳人工智能将成为网络防御基础的观点。
Aryaka公司安全工程和AI策略副总裁Aditya Sood回顾2025年时说:"AI驱动的代码生成加速了开发过程,但当模型基于不完整指令填补空白时,也引入了逻辑缺陷。AI辅助攻击变得更加定制化和可扩展,使得钓鱼和欺诈活动更难检测。"
如果说2025年是为这些基础奠定基础的一年,那么2026年将是开始大规模实施的一年。
"2025年的教训不是人工智能本身不安全,而是人工智能会放大其周围的控制措施或控制措施的缺失。AI安全更多关乎整个生态系统,包括大语言模型、生成式AI应用和服务、AI智能体以及底层基础设施,"Sood说。
成熟的方法
Forescout公司安全情报副总裁Rik Ferguson表示,网络安全行业对AI的方法将在今年趋于成熟。
"我预期在防御方面会看到更严肃、更少炒作驱动的AI采用:关联IT、OT运营技术、云和身份识别中的微弱信号,持续映射和优先处理资产和暴露风险,通过自动化分类减轻分析师的认知负担,"Ferguson说。
然而他补充道,这并不意味着失业的网络分析师会站在街角举着"愿为食物做红队测试"的牌子。
"如果做得恰当,这不是要取代人员,而是给他们思考的空间,让他们深入研究更有意义的工作,"Ferguson说。
Hack The Box联合创始人兼首席执行官Haris Pylarinos补充道:"人工智能不仅在加速响应,它还将完全重新定义安全专业人员如何提升技能、如何部署以及最终如何承担责任。
"行业正进入一个技能从检测转向判断、转向学会如何学习的阶段。成功的组织不是那些自动化程度最高的,而是那些围绕智能系统重新设计工作模式和决策机制的组织。"
对于Pylarinos来说,这些新的工作模式将以证明人机AI混合团队的有效性为核心。他认为,未来的网络安全专业人员不会是技术专家,而是验证者、对抗性思维者和行为审计师。
"最有价值的网络安全从业者将是那些能够在现实条件下压力测试AI行为的人,确保机器速度不会超越人类判断,"他说。
对于Bugcrowd首席执行官Dave Gerry来说,企业AI采用的扩散是保持更多人员参与的理由。
"生成式AI网站的流量在2024年2月到2025年1月期间跃升了50%,68%的员工使用免费工具,57%承认将敏感数据粘贴到这些工具中。因此,关键要记住AI生成的漏洞利用和虚假信息已经存在,"他说。
"安全社区需要专注于模型操控技术,如提示注入,并通过攻击者的视角主动测试这些AI系统。众包测试仍然是我们最强的防御之一,即使面对新的和不断演进的攻击向量。多样化的人类研究者能够发现其他人错过的问题。"
防御转型
与此同时,Aryaka的Sood专注于推动安全专业人员角色变化的底层技术转型。
他认为,随着组织越来越依赖AI——特别是以智能体形式出现的AI——安全团队将看到其优先级从响应和修复缺陷及其他问题,转向控制组织内的决策路径。
这将引入一系列"新"防御策略,他说。首先,我们将看到安全团队围绕AI智能体工作流构建治理层,以认证、授权、观察并可能逆转任何自动化行动。
"重点将从保护数据扩展到保护行为,"Sood说。
网络团队还需要解决静默数据蔓延的风险、影子数据集的创建和意外访问路径,因为智能体和其他AI系统会移动、转换和复制敏感数据。强大的数据血缘跟踪和更严格的访问控制将是必须的。正如用户行为分析在人类账户方面发展和成熟一样,它也需要再次这样做,为AI建立预期和允许的行为。
2026年的防御策略还需要适应不断变化的信任环境。AI企业需要跨所有层面的信任验证,因此Sood说安全团队应该寻求信任最小化架构,其中AI身份、输出和自动化决策都受到持续审计和验证。
在身份方面,必须优先考虑非人类身份的更强生命周期管理。零信任作为合规要求也将变得越来越重要。
最后,Sood说,由于网络攻击将在2026年继续利用合法工具,需要增强的基于意图的检测,系统被要求分析行动发生的"原因",而不仅仅是确认它们确实发生了。
"如果2025年教会我们信任可以被武器化,那么2026年将教会我们如何以更安全、更慎重的方式重建信任。网络安全的未来不仅关乎保护系统,还关乎保护驱动系统的逻辑、身份和自主性,"他说。
如何安全地购买AI
在2026年,具备AI知识的买家也将向IT供应商提出越来越严格的问题,Advent IM商务总监Ellie Hurst如是说。
Hurst说,仅仅复制粘贴一些关于"负责任使用AI"的模板文本到幻灯片中,在几年前可能还行得通,但在2026年,敢于尝试这种做法的销售人员将被理所当然地赶到停车场。
"企业买家,特别是政府、国防和关键国家基础设施领域的买家,现在自己也在大量使用AI。他们理解风险语言。他们正在建立AI、数据保护、运营弹性和供应链暴露之间的联系,"Hurst说。
在2026年,采购团队仅仅询问供应商是否使用AI是不够的,而是要了解他们如何治理AI,她解释道。
Hurst说,在整个2025年,围绕AI的提案请求和招标邀请中的措辞显著强化,买家越来越多地询问数据主权、人工监督、模型问责制,以及与数据保护、安全和知识产权法规合规等问题。
这种变化的产生是因为人们认识到AI在很大程度上是临时使用的,大多数IT领导者无法确定地说出他们确切知道在自己的监督下发生了什么。所有这些都导致了巨大的治理、风险和合规性问题。
但好消息是,Hurst说,这种情况可以扭转。AI治理,如果做得正确,不是要减缓或禁止创新,而是将其纳入组织的GRC实践中,以便其使用可以得到解释、扩展,关键是可以得到辩护。
买家应该考虑询问供应商在其服务中何处使用AI、哪些工作流触及敏感数据、使用了哪些第三方AI模型或平台,以及人类有什么监督权等问题。Hurst还建议买家寻找符合ISO IEC 42001标准的供应商,这是AI生命周期管理的新标准,包括网络安全。
最终,她说,如果潜在供应商准备充分,他们应该能够清楚地说明AI如何作为更广泛安全和GRC框架的一部分进行治理。
赢家和输家
新年才刚开始一周,2026年的完整故事当然还有待书写。毫无疑问,这对网络安全世界来说将是又一个动荡的年份,但Bridewell的Young说,即使2026年不一定是安全领域最灾难性的一年,AI已经将我们带到了悬崖边,接下来展开的情况可能使即将到来的12个月非常关键。
"组织现在做出的选择——恢复投资、重建网络安全技能和负责任地治理AI——将决定曲线是向弹性还是向进一步脆弱性弯曲,"Young总结道。
Q&A
Q1:人工智能在2026年将如何改变网络安全防御策略?
A:人工智能将通过关联IT、云和身份识别中的微弱信号,持续映射和优先处理资产暴露风险,并通过自动化分类减轻分析师认知负担来重塑防御策略。安全团队的重点将从保护数据扩展到保护行为,需要构建AI智能体工作流的治理层。
Q2:AI会取代网络安全专业人员吗?
A:不会完全取代。未来的网络安全专业人员角色将转变为验证者、对抗性思维者和行为审计师。最有价值的从业者将是那些能够在现实条件下压力测试AI行为的人,确保机器速度不会超越人类判断。AI是给专业人员思考空间,让他们专注于更有意义的工作。
Q3:企业在采购AI相关服务时应该注意什么?
A:企业买家需要询问供应商如何治理AI,而不仅仅是是否使用AI。应该关注数据主权、人工监督、模型问责制等问题,了解AI在供应商服务中的使用位置、哪些工作流触及敏感数据,以及使用了哪些第三方AI模型。建议寻找符合ISO IEC 42001标准的供应商。