KubeCon 2026:从 Istio 到 Dapr,当整个生态系统都在谈论 AI

KubeCon 2026 : d’Istio à Dapr, quand tout un écosystème parle d’IA

Silicon.fr by Clément Bohic 2026-03-30 12:51 Original
摘要
文章称,Istio 在 2025 年 2 月随 Istio 1.29 进入对 Kubernetes Gateway API 的推理扩展 Beta,新增 InferenceModel/InferencePool,并通过区分负载均衡算法(含 GPU 内存、队列演进、LoRA 适配器亲和性)来优化 AI 推理流量;同时 Istio 的 ambient 多集群也推进到同一阶段,借助 HBONE 头与“namespace sameness”实现跨网络端点/网关元数据交换,并在多集群安全上叠加双层 HBONE 加密。另据 CNCF “AI 合规计划”,Kubernetes 1.35 将把“Gateway API 推理扩展”纳入集群认证要求(与 DRA、加速器隔离/度量、HPA 正常性、复杂 AI operator 等一起),而 CNCF 生态方面 Dapr Agents 也升级到 v1,引入“持久代理”、工具调用与并行/顺序执行等能力,推动平台工程与 AI 工作流的标准化与可移植性。

推理请求的资源消耗往往远高于传统 API 调用,因此路由策略必须更精细,尤其要考虑 buffer、streaming、timeout 等机制。基于这一判断,Istio 在 2025 年夏季为 Kubernetes Gateway API 引入了专门的扩展,新增两个 CRD:InferenceModel 和 InferencePool。前者用于定义逻辑端点,后者则相当于一个理解 AI 工作负载特性的专用后端服务。进入的请求仍遵循 Gateway API 的 HTTPRoute 规则,但负载均衡算法不同,会综合 GPU 内存占用、队列变化以及适配器亲和性等因素;例如在 LoRA 场景下,系统会优先把请求导向已经加载了正确适配器的服务器。

这项扩展在 2 月中旬随 Istio 1.29 升级进入 beta。与此同时,ambient multicluster 也达到 beta,前提是完成了遥测相关工作。在本地集群或同一网络内的多集群环境中,xDS 的点对点发现机制可以识别所有 endpoint;但跨多个网络时,这种方式会因需要复制的信息量过大而变得不够实用。为此,Istio 给 HBONE 协议增加了专门的头部,用于在不同网络中的 endpoint 与 gateway 之间交换 peer 元数据,并引入“namespace sameness”概念:在 mesh multicluster 中,所有同名 namespace 会被视为同一个 namespace。

在安全架构上,每个集群都有自己的东西向网关,配有一个 IP 作为入口,供部署在各节点上的 ztunnel(zero trust tunnels)使用。ambient multicluster 通过嵌套两层 HBONE 连接来保护流量:第一层用于 ztunnel 与网关之间的加密和身份校验,第二层则实现端到端加密,并让源端和目的端 ztunnel 彼此验证身份。需要注意的是,同一网络内的 multicluster 仍处于 alpha。更近期、也同样是实验性的能力,是将 Solo.io 的 Agent Gateway 纳入数据平面组件;它结合 A2A 和 MCP 协议,为 AI 工作负载提供更灵活的流量管理。

在 CNCF 的“AI 合规认证”框架中,Istio 的这项推理扩展也将成为考核项之一。该框架于 2025 年秋季推出,目标是定义一套能力、API 和配置要求,使“符合 Kubernetes 标准”的集群能够可靠、高效地运行 AI/ML 工作负载,核心目的是避免碎片化影响可移植性。每个 Kubernetes 版本都有对应要求;对最新的 1.35 来说,基础要求包括:支持动态资源分配 DRA;以可实现“高级管理”的方式支持 Gateway API,用于推理服务的流量加权分发、基于请求头路由以及与服务网格集成;至少能安装并运行一种 gang scheduling 方案;若存在 HorizontalPodAutoscaler,则必须能正确处理使用加速器的 Pod;暴露加速器和相关工作负载的指标;隔离容器对加速器的访问;至少支持一种带 CRD 的复杂 AI operator(如 Ray、KubeFlow);并在存在 autoscaler 或等效机制时,能够根据请求这些加速器的 Pod 自动扩缩包含特定加速器的节点组。

在 1.35 的基础上,规范还新增了三项推荐:一种可验证的机制,用于确认加速器节点上已安装正确的驱动和配置;至少一种适用于支持该能力的加速器的静态资源共享策略;以及暴露虚拟化加速器的能力。几周前,面向 Kubernetes 1.36 的更多建议也已纳入考虑,后者预计于 4 月 22 日发布,其中就包括:实现 Gateway API 推理扩展;使用 DRA 将 Pod 绑定到多个网络接口;以及支持解耦式推理架构,例如将 vLLM 的 prefill 和 decode 实例分离,或采用 llm-d、Dynamo 等方案。目前这些能力主要由 Kubernetes 发行版厂商自行认证,今年则计划引入自动化测试套件接手。

CNCF 生态中另一个刚跨过门槛的项目是 Dapr Agents。这个基于分布式运行时 Dapr 的 Python 框架,面向 agentic 应用开发,已升级到 v1。随着这一版本发布,“agent”这一说法被认为不再准确,取而代之的是“durable agents(持久化代理)”,以突出运行时在持久性方面的优势,包括基于 Python 列表、向量数据库或 Dapr 存储的持久化、自动重试,以及确定性或事件驱动编排。v1 还支持把 agent 作为工具调用,工具执行可选择串行或并行,并新增 Redis 作为向量数据库选项。

Kyverno 虽然并非 AI 原生项目,但其路线图已包含 AI/MCP 网关管理能力,如今它在 CNCF 内也达到了最高成熟度等级。这个 policy-as-code 引擎由美国公司 Nirmata 开发,后者还基于它构建了基础设施治理产品。Kyverno 自 2020 年加入 CNCF,现已被 Adidas、Bloomberg、Coinbase、Deutsche Telekom、LinkedIn、Spotify、Vodafone、Yahoo 等公司使用。它最初只是 Kubernetes admission controller,如今已提供 CLI、SDK 和容器版本;最新发布则标志着它全面采用 CEL(Common Expression Language),并与 YAML 并行使用。

不过,CNCF 的成熟度并不总能直接转化为实际采用率。Kyverno 出现在 CNCF 最新的 platform engineering 季度雷达中,OPA(Open Policy Agent)也在列。尽管 OPA 已在基金会内达到最高成熟度,但在约 400 名受访开发者中,它仍只处于采用的第一阶段。调查覆盖 workflow 自动化、应用交付以及安全/合规管理三大领域,并从四个维度评估工具:使用情况、实用性、成熟度和推荐意愿。最终将工具分为 adopt(可靠且适用于大多数场景)、trial(值得尝试)和 assess(需谨慎评估)三类。

结果显示,在 workflow 自动化方面,Flux、Knative、Argo CD、Jenkins 等进入 adopt;Crossplane、SpinKube、Spinnaker、wasmCloud、Jenkins X、Karmada、Tekton、werf、Armada、Buildpacks 等分布在 assess 或 trial。应用交付方面,Helm、kro、Dapr 进入 adopt,Backstage、Operator Framework、KubeVela、Buildpacks 等处于 trial,Crossplane、kcp、Kusionstack、Microcks、Score 等则需评估。安全与合规领域中,Falco、in-toto、Sigstore、SPIFFE/SPIRE、cert-manager、OPA 处于 adopt;Kyverno、Cloud Custodian、KubeScape、Keycloak 等则位于 trial 或 assess 区间。

这份调查还揭示了企业构建开发平台与处理 AI 工作流之间的关系。最常见的模式是多个团队——DevOps、SRE、基础设施团队——共同提供能力,占 41%。另有 10% 由内部平台团队自研,18% 主要集成第三方工具,6% 主要依赖市场化方案,16% 则是各团队各自选型和管理工具。面对 AI 工作流,17% 的组织是在既有平台上扩展,19% 构建了专门的 AI 平台,18% 使用市场化平台,35% 采用混合模式(实验环境独立、生产环境共享),而完全由 AI 团队自行管理、没有平台支持的情况仅占 5%。

从平台建设方式与 AI 方案的组合来看,企业路径差异明显:内部开发平台最常见的是扩展现有平台(28%);若以第三方工具集成为主,则更常见的是专用 AI 平台、混合模式或市场方案,分别为 26%、26% 和 26%;在协作式平台模式下,混合模式占比最高,达到 48%;而由各团队自行选择工具的组织,则在扩展、专用 AI 平台、混合和市场方案之间分布更均衡。整体来看,KubeCon 2026 传递出的信号很明确:AI 正在把 Kubernetes 生态中的网络、调度、治理和平台工程能力重新串联起来,且这种重构已从概念讨论进入标准化与产品化阶段。

Summary
Istio (v1.29) expanded its Kubernetes Gateway API support for AI inference by adding CRDs like InferenceModel and InferencePool, enabling inference-aware routing and load balancing based on factors such as GPU memory, queue evolution, and LoRA adapter affinity; it also moved multicluster ambient mode forward and enriched HBONE for cross-network metadata exchange, while introducing experimental Agent Gateway support via Solo.io for more flexible traffic handling. In parallel, the CNCF’s “AI compliance” direction for Kubernetes is tightening: Kubernetes 1.35’s baseline includes dynamic resource allocation (DRA), advanced Gateway API inference management, accelerator metrics/isolation, gang scheduling, and autoscaling/HPA compatibility, with additional recommendations for driver verification, static accelerator sharing, and virtualized accelerators. The article also notes Dapr Agents reaching v1 (“durable agents” with tool invocation and parallel/sequential execution) and Kyverno graduating to the CNCF’s highest maturity level, alongside a CNCF platform-engineering survey showing uneven adoption of policy and platform tools despite high maturity.

Inference requests can consume far more resources than “traditional” API calls, making routing decisions critical and dependent on AI-specific strategies such as buffering, streaming and timeouts. On that basis, Istio introduced in summer 2025 a dedicated extension for Kubernetes Gateway API, adding two CRDs: `InferenceModel` and `InferencePool`. `InferenceModel` defines logical endpoints, while `InferencePool` acts as a specialized back-end service that understands AI workload characteristics. Incoming traffic still follows Gateway API `HTTPRoute` rules, but with different load-balancing algorithms that take into account GPU memory usage, queue depth and adapter affinity — for example, directing LoRA requests to servers where the right adapter is already loaded.

That inference extension has now reached beta with Istio 1.29, released in mid-February. At the same time, Istio’s multicluster ambient mode also moved to beta after telemetry work. In a local cluster, or across clusters on the same network, peer-to-peer xDS discovery can enumerate all endpoints. Across multiple networks, however, replication becomes unwieldy and information can be lost. To address this, HBONE was extended with specific headers to exchange peer metadata between endpoints and gateways on different networks. Istio also ties this to the concept of “namespace sameness”: in a multicluster mesh, namespaces with the same name are treated as a single namespace.

Each cluster has its own east-west gateway with an IP address serving as the entry point for ztunnels (“zero trust tunnels”) deployed on every node. To secure traffic, ambient multicluster uses two nested HBONE connections: one encrypts traffic between the ztunnel and the gateway and lets them verify each other’s identities; the other encrypts end-to-end traffic and allows the source and destination ztunnels to authenticate one another as well. Multicluster on the same network remains alpha. More recent — and still experimental — is support for Agent Gateway as a data-plane component. This Solo.io proxy uses A2A and MCP protocols to provide more flexible traffic management for AI workloads.

The inference extension is also becoming relevant to Kubernetes “AI certification.” The CNCF’s AI conformance program, introduced in autumn 2025, defines the capabilities, APIs and configurations a Kubernetes-certified cluster must provide to run AI/ML workloads reliably and efficiently, with the explicit goal of avoiding fragmentation that would hurt portability. For Kubernetes 1.35, the mandatory baseline includes dynamic resource allocation (DRA), Gateway API support with advanced inference-service management such as weighted traffic distribution, header-based routing and service-mesh integration, at least one gang-scheduling solution, correct HorizontalPodAutoscaler behavior for accelerator-backed pods if HPA is present, accelerator and workload metrics exposure, container-level isolation of accelerator access, support for at least one complex AI operator with a CRD such as Ray or KubeFlow, and — when an autoscaler or equivalent exists — the ability to resize accelerator-specific node groups based on pods requesting those accelerators.

With Kubernetes 1.35, the spec also added three recommendations around disaggregated architectures: a verifiable mechanism to ensure the right drivers and configurations are installed on accelerator nodes, support for at least one static resource-sharing strategy on accelerators that can handle it, and the ability to expose virtualized accelerators. Additional recommendations were added a few weeks ago for Kubernetes 1.36, due on April 22, including support for the Gateway API inference extension, DRA for attaching pods to multiple network interfaces, and disaggregated inference architectures such as vLLM with separate prefill and decode instances, llm-d and Dynamo. Today, Kubernetes distro vendors self-certify against these requirements, but an automated test suite is expected to take over this year.

Another CNCF project reaching a milestone is Dapr Agents, a Python framework for building agentic applications on top of the distributed Dapr runtime, which has reached v1. The terminology has shifted from “agent” to “durable agents,” reflecting the runtime’s persistence features: storage in Python lists, vector databases or Dapr stores; automatic retries; and deterministic or event-driven orchestration. Version 1 adds the ability to invoke agents as tools, choose between sequential and parallel tool execution, and use Redis as a vector-store option.

Kyverno is not an AI-centric project, though support for AI/MCP gateways is on its roadmap, but it has now reached CNCF’s highest maturity level. The policy-as-code engine, created by US company Nirmata, underpins infrastructure-governance products built on top of it. Under CNCF stewardship since 2020, Kyverno is used at Adidas, Bloomberg, Coinbase, Deutsche Telekom, LinkedIn, Spotify, Vodafone and Yahoo, among others. It began as a Kubernetes admission controller and is now available as a CLI, SDK and container. Its latest release fully adopts CEL (Common Expression Language) alongside YAML.

The CNCF’s latest quarterly platform-engineering radar shows that maturity does not always translate into adoption. Kyverno appears there, as does another policy-as-code engine, OPA (Open Policy Agent). Despite reaching graduated status in the foundation, OPA is still only at the first adoption stage among developers — based on a survey of about 400 respondents. The survey covered workflow automation, application delivery and security/compliance management, and assessed tools across four dimensions: actual usage, usefulness, maturity and willingness to recommend them. The result is three categories: “adopt” for reliable tools suitable for most use cases, “trial” for tools worth exploring, and “assess” for tools that should be evaluated cautiously.

The radar shows a broad spread of tools across CNCF maturity levels. In workflow automation, the “adopt” group includes Flux, Knative, Argo CD, Jenkins and Helm, while “trial” includes Crossplane, SpinKube, Spinnaker, wasmCloud, Karmada, Tekton, Buildpacks and Jenkins X, and “assess” includes werf and Armada. In application delivery, Dapr, Backstage, Helm and kro are in “adopt,” while Buildpacks, KubeVela, Operator Framework and Score are in “trial,” and Crossplane, kcp, Kusionstack and Microcks are in “assess.” In security/compliance, Sigstore, SPIFFE/SPIRE, cert-manager, Falco, in-toto and OPA are in “adopt”; Cloud Custodian, Kyverno, KubeScape, Notary and OpenCost are in “trial”; and KubeArmor, KubeWarden, Bank-Vaults, Bpfman, Capsule, External-Secrets Operator and Keycloak are in “assess.”

The survey also highlights how organizations approach AI workflows depending on how they build developer platforms. In 41% of cases, multiple teams — DevOps, SRE and infrastructure — contribute capabilities. In 10%, a platform team builds internally; in 18%, it mainly integrates third-party tools; in 6%, it relies primarily on commercial products; and in 16%, each team chooses and manages its own tooling. For AI workflows specifically, 17% extended an existing platform, 19% built a dedicated AI platform, 18% use market platforms, 35% follow a hybrid model with separate experimentation and shared production, and only 5% let AI teams operate directly without platform support.

Résumé
Istio (1.29, bêta mi-février) étend la Gateway API de Kubernetes avec des CRD InferenceModel et InferencePool, afin d’optimiser le routage des requêtes d’inférence selon des critères comme la mémoire GPU, l’évolution des files d’attente et l’affinité pour les modèles LoRA déjà chargés ; le projet avance aussi sur l’ambient multicluster (HBONE enrichi, namespace sameness) et sur l’Agent Gateway via un proxy Solo.io. Parallèlement, la CNCF prépare son « programme de conformité IA » : à partir de K8s 1.35, la prise en charge de l’extension inférence Gateway API devient un critère, avec d’autres exigences liées aux accélérateurs, au DRA, à l’HPA et à la gouvernance/mesures. Enfin, Dapr Agents passe en v1 avec des « agents durables » et des capacités d’invocation d’agents/outils, tandis que Kyverno atteint le plus haut niveau de maturité CNCF (graduated) grâce à Nirmata, dans un contexte où l’adoption des outils platform engineering reste variable selon les enquêtes.

Les requêtes d’inférence peuvent consommer bien plus de ressources que les requêtes API « traditionnelles ». Leur routage est donc d’autant plus critique et doit reposer sur des stratégies adaptées (buffers, streaming, timeouts…).

Partant de ce postulat, le projet Istio avait introduit, à l’été 2025, une extension spécifique pour la Gateway API de Kubernetes. Elle apporte des CRD InferenceModel et InferencePool. La première permet de définir des endpoints logiques. La seconde fonctionne comme un service back-end spécialisé qui comprend les caractéristiques des workloads IA. Quant aux requêtes entrantes, elles suivent les règles HTTPRoute de la Gateway API, mais avec des algorithmes de load balancing distincts. Entrent notamment en compte l’utilisation de la mémoire GPU, l’évolution des files d’attente et l’affinité d’adaptateur (pour les modèles LoRA, on préfère diriger les requêtes vers des serveurs où le bon adaptateur est déjà chargé).

Istio s’ouvre à Agent Gateway

Cette extension est récemment passée en bêta (mi-février, avec la publication d’Istio 1.29).

Le mode ambient multicluster a atteint le même stade à la même occasion, après des travaux en matière de télémétrie.

Dans un cluster local (ou entre des clusters situés sur un même réseau), la découverte xDS entre pairs permet de connaître tous les endpoints. À l’échelle de plusieurs réseaux, le mécanisme est moins pratique : des informations peuvent se perdre, vu la quantité à répliquer.

Pour permettre l’échange de métadonnées de pairs entre endpoints et gateways situés sur des réseaux différents, le protocole HBONE a été enrichi d’en-têtes spécifiques. Istio y associe le concept de namespace sameness : dans un mesh multicluster, toutes les namespaces ayant le même nom sont considérés comme un même namespace.

Chaque cluster a sa passerelle est-ouest avec une IP faisant office de point d’entrée pour les ztunnels (« tunnels zero trust ») déployés sur chaque nœud. Pour sécuriser le trafic, le mode ambient multicluster imbrique deux connexions HBONE. L’une chiffre le trafic du ztunnel vers la passerelle et leur permet de vérifier leurs identités respectives. L’autre chiffre le trafic de bout en bout et permet aux ztunnels source et destination de vérifier également leurs identités.

Le multicluster sur un même réseau reste en version alpha. Plus récente – et également expérimentale – est la prise en charge d’Agent Gateway comme composant du plan de données. Ce proxy made in Solo.io se nourrit des protocoles A2A et MCP pour apporter une gestion plus flexible du trafic dans le contexte des workloads IA.

L’extension inférence, prise en compte pour la « certification IA » des clusters Kubernetes…

Gérer une implémentation de l’extension inférence pour la Gateway API devrait bientôt devenir un critère dans le cadre du « programme de conformité IA » de la CNCF.

Ce dispositif introduit à l’automne 2025 définit un ensemble de capacités, d’API et de configurations qu’un cluster certifié « conforme Kubernetes » doit proposer pour exécuter de façon fiable et efficace des workloads IA/ML. Principal objectif : éviter une fragmentation qui compromettrait la portabilité.

Chaque version de K8s a sa liste d’exigences associée. Pour la dernière en date (1.35), le socle obligatoire est le suivant :

Prendre en charge l’allocation dynamique des ressources (DRA)

Gérer la Gateway API dans une implémentation permettant une « gestion avancée » pour les services d’inférence (distribution pondérée du trafic, routage sur la base des en-têtes, intégration avec les maillages de services…)

Permettre d’installer et d’exploiter au moins une solution de planification des gangs

Fonctionnement correct de l’HorizontalPodAutoscaler – si présent – pour les pods qui exploitent des accélérateurs

Exposer des métriques sur les accélérateurs et les workloads pris en charge

Isoler les accès aux accélérateurs depuis les conteneurs

Gérer au moins un opérateur IA complexe disposant d’un CRD (Ray, KubeFlow…)

En présence d’un autoscaler ou d’un mécanisme équivalent, permettre de redimensionner les groupes de nœuds contenant des accélérateurs spécifiques en fonction des pods qui sollicitent ces accélérateurs

… comme les architectures désagrégées

Seul ce dernier point n’est pas obligatoire avec les versions précédentes de Kubernetes (il est recommandé avec la 1.34). Avec la 1.35, la spec s’est enrichie de trois autres recommandations :

Mécanisme vérifiable pour s’assurer de l’installation des pilotes et des configurations adéquats sur les nœuds dotés d’accélérateurs

Possibilité de mettre en œuvre au moins une stratégie de partage statique de ressources avec les accélérateurs qui le gèrent

Capacité à exposer des accélérateurs virtualisés

Il y a quelques semaines, plusieurs recommandations ont été intégrées dans la perspective de K8s 1.36, attendu pour le 22 avril. Gérer une implémentation de l’extension inférence pour la Gateway API en fait donc partie. Il en va de même avec l’utilisation du DRA pour attacher des pods à plusieurs interfaces réseau. Et avec la prise en charge d’architectures d’inférence désagrégées (vLLM avec instances prefill et decode séparées, llm-d, Dynamo…).

À l’heure actuelle, les fournisseurs de distros Kubernetes les autocertifient. Une suite de tests automatisés doit prendre le relais cette année.

Dapr Agents en GA

Autre projet de l’écosystème CNCF qui vient de franchir un cap : Dapr Agents. Ce framework Python, destiné au développement d’applications agentiques sur la base du runtime distribué Dapr, est passé en v1.

À cette occasion, le concept d’« agent » devient obsolète, laissant place aux « agents durables ». Une évolution terminologique censée illustrer les bénéfices du runtime en matière de persistance – stockage sur listes Python, bases vectorielles ou magasins Dapr ; retry automatique ; orchestration déterministe ou orientée événements…

La v1 apporte la possibilité d’invoquer des agents en tant qu’outils. Elle donne aussi le choix entre exécution séquentielle et parallèle des outils. Et ajoute Redis comme option de base vectorielle.

Kyverno n’est pas un projet AI-centric (quoique la gestion des passerelles IA/MCP soit sur sa roadmap), mais il vient de monter en grade à la CNCF, y atteignant le plus haut niveau de maturité.

On doit ce moteur de policy-as-code à l’entreprise américaine Nirmata. Laquelle a développé, sur cette base, des solutions de gouvernance d’infrastructure.

Sous l’aile de la CNCF depuis 2020, Kyverno est aujourd’hui utilisé chez Adidas, Bloomberg, Coinbase, Deutsche Telekom, LinkedIn, Spotify, Vodafone et Yahoo, entre autres. Il s’agissait à l’origine d’un contrôleur d’admission Kubernetes. Il est désormais disponible en CLI, SDK et conteneur. La dernière release marque l’adoption complète du CEL (Common Expression Language) en plus du YAML.

Platform engineering : maturité CNCF ne rime pas toujours avec adoption

Kyverno figure dans le dernier radar trimestriel de la CNCF relatif aux outils de platform engineering. Un autre moteur PaC s’y trouve : OPA (Open Policy Agent). Bien qu’arrivé au plus haut niveau de maturité au sein de la fondation, il n’apparaît encore qu’au premier stade d’adoption chez les développeurs. En tout cas les quelque 400 qui ont participé à l’enquête.

Cette dernière a couvert trois domaines : automatisation de workflows, livraison d’applications et gestion de la sécurité/conformité. Elle a pris en compte quatre dimensions :

L’usage des outils (quels devs s’en servent ou s’en sont servis)

Leur utilité (jugement de l’adéquation aux besoins des projets)

Leur maturité (évaluation de stabilité et de fiabilité)

La propension à les recommander

Il en résulte trois catégories : « adopt » (outils fiables et applicables à la plupart des cas d’usage), « trial » (qui valent le coup d’être explorés) et « assess » (à évaluer avec précaution). Le tableau suivant synthétise la situation. « S » signifie qu’un outil est en sandbox à la CNCF (premier niveau de maturité). « I », qu’il en est au deuxième (incubation). « G », qu’il a atteint le dernier (graduated).

Assess

Trial

Adopt

Automatisation de workflows

Crossplane (I)

Flux (G)

Knative (G)

SpinKube (I)

Spinnaker (I)

wasmCloud (I)

Jenkins X (I)

Karmada (I)

Tekton (I)

werf (S)

Argo CD (G)

Armada (S)

Buildpacks (I)

Jenkins (G)

Livraison d’applications

Crossplane (I)

kcp (S)

Kusionstack (S)

Microcks (S)

Buildpacks (I)

Dapr (G)

KubeVela (I)

Operator Framework (I)

Score (S)

Backstage (I)

Helm (G)

kro (G)

Gestion sécurité/conformité

Falco (G)

in-toto (G)

KubeArmor (S)

KubeWarden (S)

Kyverno (I)

Sigstore (G)

Bank-Vaults (S)

Bpfman (S)

Capsule (S)

Cloud Custodian (I)

External-Secrets Operator (S)

KubeScape (I)

Notary (I)

OpenCost (I)

SPIFFE/SPIRE (G)

cert-manager (G)

Keycloak (I)

OPA (G)

Quatre approches plate-forme, quatre approches IA

L’enquête donne aussi un aperçu de l’approche que les organisations ont des workflows IA en fonction de la façon dont elles constituent leurs plates-formes développeurs.

Le plus souvent (41 % de l’échantillon), plusieurs équipes – DevOps, SRE, infra – contribuent à fournir des capacités. Dans 10 % des cas, une équipe plate-forme développe en interne ; dans 18 % des cas, elle intègre principalement des outils tiers. Il arrive aussi qu’elle s’appuie essentiellement sur des solutions du marché (6 %) ou que chaque équipe choisisse et gère son outillage (16 %).

Pour traiter les workflows IA, certains ont étendu leur plate-forme existante (17 %). D’autres en ont construit une spécifique (19 %), utilisent des plates-formes du marché (18 %) ou ont une approche hybride (expérimentation séparée, prod partagée ; 35 %). La gestion directe par les équipes IA sans support au niveau plate-forme est plus rare (5 %).

Approche plate-forme ↓

Approche IA →

Extension

Plate-forme IA dédiée

Hybride

Solution du marché

Développement interne

28 %

11 %

25 %

17 %

Intégration d’outils tiers

18 %

26 %

26 %

26 %

Fonctionnement collaboratif

19 %

16 %

48 %

10 %

Choix par équipe

8 %

25 %

26 %

25 %

The post KubeCon 2026 : d’Istio à Dapr, quand tout un écosystème parle d’IA appeared first on Silicon.fr.

AI Insight
Core Point

KubeCon 2026 释放出一个明确信号:Kubernetes/CNCF 生态正把 AI 推理路由、Agent 运行时和平台治理一起标准化,这将直接影响云原生 AI 的可移植性与运维方式。

Key Players

Istio — Kubernetes 服务网格项目,CNCF 生态,全球分布式。

Solo.io — 云原生网络与网关公司,美国。

Dapr — 分布式应用运行时项目,CNCF 生态,全球分布式。

Dapr Agents — 基于 Dapr 的 Python Agent 框架,CNCF 生态,全球分布式。

CNCF — 云原生计算基金会,美国。

Kyverno — Kubernetes policy-as-code 引擎,CNCF 生态,美国公司 Nirmata 发起。

OPA — Open Policy Agent,开源策略引擎,CNCF 生态,全球分布式。

Industry Impact
  • ICT: High — Kubernetes、服务网格、网关与平台工程治理规则正在向 AI 工作负载扩展
  • Computing/AI: High — 推理路由、Agent 运行时、分解式推理与加速器管理被纳入标准化
  • Energy: Medium — GPU/加速器资源调度与利用率优化会影响算力能耗
  • Automotive: Low — 仅间接受益于边缘/云原生 AI 基础设施能力
Tracking

[Strongly track] — 这不仅是产品更新,而是在定义下一代云原生 AI 基础设施的事实标准。

Highlights
Upcoming Event
Related Companies
LinkedIn
mature
neutral
neutral
neutral
neutral
neutral
positive
positive
positive
neutral
positive
positive
neutral
positive
neutral
positive
positive
neutral
positive
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
neutral
positive
positive
positive
positive
neutral
neutral
positive
neutral
neutral
neutral
neutral
neutral
neutral
positive
neutral
neutral
vLLM
startup
positive
neutral
neutral
neutral
positive
neutral
neutral
neutral
Categories
人工智能 软件 云计算
AI Processing
2026-03-30 16:21
deepseek / deepseek-chat