{ 专家论坛 } – 从云时代到代理人工智能:为何网络安全必须跟上创新步伐

{ Tribune Expert } – De l’ère du cloud à l’IA agentique : pourquoi la cybersécurité doit rattraper l’innovation

Silicon.fr by Martyn Ditchburn* 2026-03-16 10:37 Original
摘要
文章讨论了人工智能(AI)技术的三大浪潮及其对企业安全的影响。第一波是预测分析,第二波是生成式AI,第三波是代理AI,后者正在改变威胁格局。Zscaler的CTO Martyn Ditchburn指出,企业需要从被动安全转向“设计即弹性”的安全模式,以应对AI带来的新威胁。

每一次重大技术突破都遵循一个众所周知的模式:承诺诱人,采用加速,竞争压力加剧,而安全总是最后到来。

公共云就是一个例子。作为一个广泛且定义不清的概念,根据不同组织有不同的意义,云的采用既带来了机遇也引发了担忧。老牌公司往往措手不及,要么被更敏捷的竞争对手超越,要么被在集中控制之外运作的影子IT计划所惊讶。结果是恐惧、模糊和不确定的安全姿态交织在一起。

今天,人工智能(AI)也遵循相同的模式。但这次,事情进展得更快,规模更大,涉及的利益也更高。AI不是单一技术。它是以波浪形式演进的,目前对这些波浪的误解是企业面临的最大风险之一。

AI的三波浪潮:它们为何对安全至关重要

AI的第一波浪潮集中在预测分析:数据湖、大规模模式识别和主要在后台运行的机器学习。对于许多组织来说,这种采用是悄然进行的,没有真正的董事会监督。从安全角度来看,这些系统主要是数据保护问题:确保敏感信息不被泄露或滥用。

第二波浪潮,生成式AI,改变了一切。当能够生成类人文本、代码和图像的工具进入公共领域时,AI一夜之间成为讨论的中心话题。然而,这种可见性是有代价的。生成式AI被归入一个过于宽泛的“AI”概念中,掩盖了风险特征和安全控制的关键差异。安全团队以可预见的方式反应,专注于最显眼的部分。

但正是第三波浪潮,代理AI,从根本上改变了威胁格局。

代理AI:当系统行动,而不仅仅是辅助

代理AI系统不仅仅是分析或生成内容:它们行动。它们直接连接到业务系统,做出决策并触发工作流。而且越来越多地以半自主的方式进行,只有有限的人类监督。这不是一个理论上的未来。

预测AI和生成式AI基本上是数据交换问题。代理AI是行为完整性和系统完整性问题。一旦AI代理被允许与ERP平台、金融系统、物流工作流或客户环境互动,妥协的影响范围就会大大扩展。

与互联网早期发展的相似之处令人震惊。静态网站被数据库驱动的动态应用所取代。突然之间,SQL注入成为主要威胁。自动化暴露了新的攻击向量。每一次架构演进都引入了安全团队尚未准备好应对的风险。代理AI代表了一个类似的转折点。

盲点:内部控制与外部现实

这不是缺乏投资,而是过度自信。

换句话说,组织认为自己是安全的,因为它们控制着内部基础设施中发生的事情,同时忽视了由AI驱动的合作伙伴、平台和供应链组成的不断扩展的生态系统。

当代理AI开始在组织边界之外运作时,这一盲点变得特别危险。今天的“内部”AI很快就会成为明天互联供应链的自动化。零售、物流和制造业可能会引领这一转型,企业追求可持续性、精益生产和通过AI优化运营的目标。

当代理系统开始将工作从一个组织转移到另一个组织时,攻击面会成倍增加。安全故障将不再是孤立事件。它们将以级联方式传播。

防御AI相关威胁的演变:思维方式的转变

防御AI驱动的威胁不需要放弃现有的安全原则,而是需要它们的演变。许多为保护代理AI所需的防护措施是从管理人类用户的有效控制中衍生出来的。主要区别在于操作的速度、规模和持续性。

尽管如此,从安全角度来看,AI代理仍应被视为人类用户,使用基于零信任模型的控制。这意味着分配身份,按照最小特权原则定义访问权限,建立行为基准并持续监控异常。如果一个代理突然开始与其定义范围之外的系统互动,这种偏差应与可疑的人类行为一样可见和可操作。

分段变得至关重要,不是作为一个抽象的架构理想,而是作为在妥协情况下限制影响范围的具体手段。否则,受损的代理可以以机器的速度横向移动。

更重要的是,组织必须停止将AI安全视为简单的附加。如果组织已经难以应对当前的威胁,它们如何能够管理诸如代理AI和量子计算等新兴威胁?

从被动网络安全到“设计即韧性”的网络安全

从云采用和AI演变中汲取的主要教训是:被动安全无法扩展。

创新的步伐现在系统性地超过了治理、立法和采购周期。等待监管框架成熟或事件迫使行动已不再可行。韧性必须从一开始就被设计,而不是在干扰发生后才附加。

这意味着将注意力从一次性解决方案转移到架构灵活性。组织必须建立能够随着AI能力演变而适应的安全模型,而不是在每次演变时崩溃。

AI不会减速。代理系统只会变得更强大、更互联和更自主。继续将AI安全视为边缘或未来问题的组织将重蹈云时代的错误。

然而,这次,后果将传播得更快、更远。

问题不再是AI是否会重塑威胁格局。它已经这样做了。真正的问题是企业是否准备好在级联效应到来之前进行防御。

*Martyn Ditchburn是Zscaler的驻地CTO

图片:© DR

本文首次发表于{ 专家论坛 } – 从云时代到代理AI:为什么网络安全必须赶上创新,发表于Silicon.fr。

Summary
The article discusses the evolving landscape of artificial intelligence (AI) and its implications for cybersecurity, highlighting three waves of AI: predictive analytics, generative AI, and agentic AI. Martyn Ditchburn, CTO in Residence at Zscaler, emphasizes the need for organizations to adapt their security measures to keep pace with the rapid advancements and interconnected nature of agentic AI, which can autonomously interact with business systems and expand the attack surface. The article stresses the importance of proactive, resilient security architectures that can evolve alongside AI capabilities, rather than relying on reactive measures.

Every major technological breakthrough follows a well-known pattern: the promise is enticing, adoption accelerates, competitive pressure intensifies, and security always comes last.

This was already the case with the public cloud. A broad and poorly defined concept, having different meanings depending on the organizations, cloud adoption created both opportunities and concerns. Established companies were often caught off guard, either exposed by more agile competitors or surprised by shadow IT initiatives operating outside centralized control. The result is a mix of fear, ambiguity, and uncertain security posture.

Today, the same pattern is seen with artificial intelligence. But this time, things are moving even faster, managed on a larger scale, and with much higher stakes. AI is not a single technology. It is an evolution in waves, and the poor understanding of these waves currently constitutes one of the greatest risks for businesses.

The Three Waves of AI: Why They Matter for Security

The first wave of AI focused on predictive analytics: data lakes, large-scale pattern recognition, and machine learning operating mainly in the background. For many organizations, this adoption happened quietly, without real oversight at the board level. From a security perspective, these systems primarily represented a data protection issue: ensuring that sensitive information was neither disclosed nor misused.

The second wave, generative AI, changed everything. When tools capable of producing human-like text, code, and images entered the public domain, AI suddenly became a central topic of discussion. However, this visibility came at a cost. Generative AI was lumped into a single, overly broad concept of "AI," masking critical differences in risk profiles and security controls. Security teams reacted predictably by focusing on what was most visible.

But it is the third wave, agentic AI, that fundamentally changes the threat landscape.

Agentic AI: When Systems Act, and No Longer Just Assist

Agentic AI systems do not just analyze or generate content: they act. They connect directly to business systems, make decisions, and trigger workflows. Increasingly, they do so semi-autonomously, with limited human oversight. This is not a theoretical future.

Predictive AI and generative AI are fundamentally data exchange problems. Agentic AI is a problem of behavioral integrity and system integrity. As soon as AI agents are allowed to interact with ERP platforms, financial systems, logistics workflows, or customer environments, the impact perimeter of a compromise expands significantly.

The parallels with the early evolutions of the Internet are striking. Static websites gave way to dynamic applications driven by databases. Suddenly, SQL injections became a dominant threat. Automation exposed new attack vectors. Each architectural evolution introduced risks that security teams were not yet equipped to handle. Agentic AI represents a similar inflection point.

The Blind Spot: Internal Control vs. External Reality

There is not a lack of investment, but rather a misplaced overconfidence.

In other words, organizations think they are secure because they control what happens within their own infrastructures, while neglecting the expanding ecosystem of partners, platforms, and AI-driven supply chains beyond their borders.

This blind spot becomes particularly dangerous when agentic AI starts operating beyond organizational boundaries. Today's "internal" AI quickly becomes the interconnected automation of tomorrow's supply chains. The retail, logistics, and manufacturing sectors are likely to lead this transformation, as companies pursue sustainability, just-in-time production, and AI-driven operational optimization.

When agentic systems begin transferring work from one organization to another, the attack surface multiplies. Security failures will no longer be isolated incidents. They will cascade.

Defending Against the Evolving AI-Driven Threats: A Change in Mindset

Defending against AI-driven threats does not require abandoning existing security principles, but demands their evolution. Many of the safeguards needed to secure agentic AI are derived from effective controls used to manage human users. The main difference lies in the speed, scale, and continuous nature of operations.

Despite this, AI agents must still be treated as human users from a security perspective, with controls based on the Zero Trust model. This means assigning identities, defining access according to the principle of least privilege, establishing behavioral baselines, and continuously monitoring anomalies. If an agent suddenly starts interacting with systems outside its defined perimeter, this deviation must be as visible and actionable as suspicious human behavior.

Segmentation becomes essential, not as an abstract architectural ideal, but as a concrete way to limit the scope of impacts in case of a compromise. Without it, compromised agents can move laterally at machine speed.

And perhaps more importantly, organizations must stop viewing AI security as a mere add-on. If organizations are already struggling to cope with current threats, how could they manage emerging threats such as agentic AI and quantum computing?

From Reactive Cybersecurity to "Resilient by Design" Cybersecurity

The main lesson from both cloud adoption and AI evolution is this: reactive security does not scale.

The pace of innovation now consistently outstrips governance, legislation, and procurement cycles. Waiting for regulatory frameworks to mature or for incidents to force action is no longer viable. Resilience must be designed from the start, not added after the fact once disruption has occurred.

This involves shifting the focus from point solutions to architectural agility. Organizations must build security models capable of adapting as AI capabilities evolve, rather than breaking with each evolution.

AI will not slow down. Agentic systems will only become more capable, more connected, and more autonomous. Organizations that continue to view AI security as a marginal or future problem will repeat the mistakes of the cloud era.

This time, however, the consequences will spread faster and further.

The question is no longer whether AI will reshape the threat landscape. It already has. The real question is whether companies are ready to defend against it before the cascading effects reach them.

*Martyn Ditchburn is CTO in Residence at Zscaler

Photo: © DR

The post { Expert Opinion } – From the Cloud Era to Agentic AI: Why Cybersecurity Must Catch Up with Innovation appeared first on Silicon.fr.

Résumé
L'article souligne l'évolution rapide de l'intelligence artificielle (IA), en particulier l'IA agentique, qui pose de nouveaux défis en matière de cybersécurité en raison de sa capacité à agir de manière semi-autonome et à interagir directement avec les systèmes métiers. Martyn Ditchburn, CTO in Residence chez Zscaler, met en garde contre les risques accrus de compromission et la nécessité pour les entreprises de développer des modèles de sécurité résilients dès le départ, plutôt que de réagir après coup. L'article insiste sur l'importance de l'agilité architecturale pour faire face à l'évolution rapide des capacités de l'IA.

Chaque grande rupture technologique suit un schéma bien connu : la promesse est séduisante, l’adoption s’accélère, la pression concurrentielle s’intensifie, et la sécurité arrive toujours en dernier.

Ce fut déjà le cas avec le cloud public. Concept vaste et mal défini, ayant une signification différente selon les organisations, l’adoption du cloud a créé à la fois des opportunités et des inquiétudes. Les entreprises établies ont souvent été prises de court, soit exposées par des concurrents plus agiles, soit surprises par des initiatives de shadow IT opérant en dehors du contrôle centralisé. Le résultat mêle alors peur, ambiguïté et posture de sécurité incertaine.

C’est aujourd’hui le même schéma avec l’intelligence artificielle. Mais cette fois, les choses vont encore plus vite, sont gérées à une plus grande échelle et avec des enjeux bien plus élevés. L’IA n’est pas une technologie unique. Il s’agit d’une évolution par vagues, et la mauvaise compréhension de ces vagues constitue actuellement l’un des plus grands risques pour les entreprises.

Les trois vagues de l’IA : pourquoi elles comptent pour la sécurité

La première vague de l’IA s’est concentrée sur l’analytique prédictive : data lakes, reconnaissance de motifs à grande échelle et machine learning opérant principalement en arrière-plan. Pour de nombreuses organisations, cette adoption s’est faite discrètement, sans véritable supervision au niveau des conseils d’administration. Du point de vue de la sécurité, ces systèmes représentaient essentiellement un problème de protection des données : il s’agissait de s’assurer que les informations sensibles ne soient ni divulguées ni utilisées de manière abusive.

La deuxième vague, l’IA générative, a tout changé. Lorsque des outils capables de produire du texte, du code et des images de type humain sont entrés dans le domaine public, l’IA est devenue du jour au lendemain un sujet central de discussion. Cependant, cette visibilité a eu un coût. L’IA générative a été regroupée dans un concept unique et trop large d’« IA », masquant des différences critiques dans les profils de risque et les contrôles de sécurité. Les équipes de sécurité ont réagi de manière prévisible en se concentrant sur ce qui était le plus visible.

Mais c’est la troisième vague, l’IA agentique, qui modifie fondamentalement le paysage des menaces.

IA agentique : lorsque les systèmes agissent, et ne se contentent plus d’assister

Les systèmes d’IA agentique ne se contentent pas d’analyser ou de générer du contenu : ils agissent. Ils se connectent directement aux systèmes métier, prennent des décisions et déclenchent des workflows. De plus en plus, ils le font de manière semi-autonome, avec une supervision humaine limitée. Il ne s’agit pas d’un futur théorique.

L’IA prédictive et l’IA générative sont fondamentalement des problèmes d’échange de données. L’IA agentique est un problème d’intégrité comportementale et d’intégrité des systèmes. Dès que des agents d’IA sont autorisés à interagir avec des plateformes ERP, des systèmes financiers, des workflows logistiques ou des environnements clients, le périmètre d’impact d’une compromission s’étend considérablement.

Les parallèles avec les premières évolutions d’Internet sont frappants. Les sites web statiques ont laissé place à des applications dynamiques pilotées par des bases de données. Soudainement, les injections SQL sont devenues une menace dominante. L’automatisation a exposé de nouveaux vecteurs d’attaque. Chaque évolution architecturale a introduit des risques que les équipes de sécurité n’étaient pas encore équipées pour gérer. L’IA agentique représente un point d’inflexion similaire.

L’angle mort : contrôle interne vs réalité externe

On note alors non pas un manque d’investissement, mais un excès de confiance mal placé.

En d’autres termes, les organisations pensent être sécurisées parce qu’elles contrôlent ce qui se passe à l’intérieur de leurs propres infrastructures, tout en négligeant l’écosystème en expansion constitué de partenaires, de plateformes et de chaînes d’approvisionnement pilotées par l’IA au-delà de leurs frontières.

Cet angle mort devient particulièrement dangereux lorsque l’IA agentique commence à opérer au-delà des frontières organisationnelles. L’IA « interne » d’aujourd’hui devient rapidement l’automatisation interconnectée des chaînes d’approvisionnement de demain. Les secteurs du commerce de détail, de la logistique et de l’industrie manufacturière devraient probablement mener cette transformation, les entreprises poursuivant des objectifs de durabilité, de production en flux tendu et d’optimisation des opérations par l’IA.

Au moment où les systèmes agentiques commencent à transférer du travail d’une organisation à une autre, la surface d’attaque se multiplie. Les défaillances de sécurité ne seront plus des incidents isolés. Elles se propageront en cascade.

Se défendre contre l’évolution des menaces liées à l’IA : un changement d’état d’esprit

Se défendre contre les menaces pilotées par l’IA ne nécessite pas d’abandonner les principes de sécurité existants, mais exige leur évolution. Bon nombre des garde-fous nécessaires pour sécuriser l’IA agentique sont dérivés de contrôles efficaces utilisés pour gérer les utilisateurs humains. La principale différence réside dans la vitesse, l’échelle et la nature continue des opérations.

Malgré cela, les agents d’IA doivent toujours être traités comme des utilisateurs humains du point de vue de la sécurité, avec des contrôles basés sur le modèle Zero Trust. Cela signifie attribuer des identités, définir des accès selon le principe du moindre privilège, établir des références comportementales et surveiller en continu les anomalies. Si un agent commence soudainement à interagir avec des systèmes en dehors de son périmètre défini, cet écart doit être aussi visible et exploitable qu’un comportement humain suspect.

La segmentation devient essentielle, non pas comme un idéal architectural abstrait, mais comme un moyen concret de limiter l’ampleur des impacts en cas de compromission. Sans cela, des agents compromis peuvent se déplacer latéralement à la vitesse des machines.

Et peut-être plus important encore, les organisations doivent cesser de considérer la sécurité de l’IA comme un simple ajout. Si les organisations peinent déjà à faire face aux menaces actuelles, comment pourraient-elles gérer les menaces émergentes telles que l’IA agentique et l’informatique quantique ?

D’une cybersécurité réactive à une cybersécurité « resilient by design »

La principale leçon tirée à la fois de l’adoption du cloud et de l’évolution de l’IA est la suivante : la sécurité réactive ne passe pas à l’échelle.

Le rythme de l’innovation dépasse désormais systématiquement celui de la gouvernance, de la législation et des cycles d’approvisionnement. Attendre que les cadres réglementaires arrivent à maturité ou que des incidents forcent l’action n’est plus viable. La résilience doit être conçue dès le départ, et non ajoutée après coup une fois la perturbation survenue.

Cela implique de déplacer l’attention des solutions ponctuelles vers l’agilité architecturale. Les organisations doivent construire des modèles de sécurité capables de s’adapter à mesure que les capacités de l’IA évoluent, plutôt que de se briser à chaque évolution.

L’IA ne ralentira pas. Les systèmes agentiques ne feront que devenir plus capables, plus connectés et plus autonomes. Les organisations qui continuent de considérer la sécurité de l’IA comme un problème marginal ou futur répéteront les erreurs de l’ère du cloud.

Cette fois, cependant, les conséquences se propageront plus rapidement et plus loin.

La question n’est plus de savoir si l’IA va remodeler le paysage des menaces. Elle l’a déjà fait. La véritable question est de savoir si les entreprises sont prêtes à s’en défendre avant que les effets en cascade ne les atteignent.

*Martyn Ditchburn est CTO in Residence chez Zscaler

Photo : © DR

The post { Tribune Expert } – De l’ère du cloud à l’IA agentique : pourquoi la cybersécurité doit rattraper l’innovation appeared first on Silicon.fr.

AI Insight
Core Point

文章指出,AI代理正把安全风险从“数据保护”升级为“系统与行为完整性”问题,企业必须从事后补救转向内建韧性,否则会重演云时代的安全滞后。

Key Players

Zscaler — 云安全/零信任安全厂商,美国加州圣何塞。

Silicon.fr — 法国科技媒体,法国。

Industry Impact
  • ICT: High — 零信任、身份管理、分段和供应链安全需求上升
  • Computing/AI: High — AI代理自主执行任务,扩大攻击面与治理难度
  • Energy: Low — 仅间接涉及运营优化与自动化
  • Automotive: Low — 未直接提及,仅可类比复杂系统安全
Tracking

[Strongly track] — AI agentic security、零信任与跨组织供应链风险将快速成为企业安全重点。

Related Companies
neutral
Zscaler
mature
neutral
Categories
人工智能 云计算 网络安全
AI Processing
2026-03-26 11:07
openai / gpt-5.4-mini