亚马逊 S3 迎来 20 周年:那套“殖民”了云端的 API

Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud

Silicon.fr by Philippe Leroy 2026-03-16 14:04 Original
摘要
Amazon Simple Storage Service(S3)自2006年3月14日推出以来,已从亚马逊内部存储工具演变为全球云存储基础设施,累计存储超过50万亿个对象、峰值处理达每秒2亿次请求,并以S3 API成为对象存储的事实标准。文章指出,AWS通过持续降价和生态扩张推动对象存储“商品化”,同时也让企业从传统capex转向按量付费的opex模式,但带来请求费、出站流量费和“账单惊吓”等新风险。 S3如今已深度嵌入数据湖、备份、归档和生成式AI等场景,支撑训练数据、特征库和推理日志等关键工作负载;其影响不仅巩固了AWS的市场地位,也带动了兼容S3的多云和本地化存储市场增长。

Amazon S3 于 2006 年 3 月 14 日上线,最初只是 Amazon 为自身电商业务打造的内部存储组件,如今已演变为全球云计算的基础设施支柱。20 年间,它不仅重塑了企业存储的技术架构,也改变了 IT 成本模型:从传统硬件采购和容量预留,转向按需计费、按使用量付费的云模式,并让 S3 的 API 成为事实上的行业标准。

S3 的起点非常务实:Amazon 需要一种面向 web-scale 的存储服务,要求简单、弹性强、可靠,并能支撑自身应用。服务从一开始就向外部开发者开放,核心卖点是把存储与底层硬件解耦,通过简单 API 访问,并采用用量计费。这在当时与主流的 SAN/NAS 存储阵列模式形成鲜明对比,后者通常依赖 capex(资本性支出)采购和预留容量。

20 年后的规模令人震撼:S3 已存储超过 500 万亿个对象,峰值可处理每秒高达 2 亿次请求。这样的规模几乎不可能由绝大多数企业在内部经济地复制,也正因此形成了强烈的平台效应。围绕 S3,数据湖、分析、人工智能、备份和归档等服务不断生长,进一步强化了 AWS 的技术和经济锁定效应。

价格战也是 S3 影响力扩张的重要一环。2006 年发布时,S3 的定价为每 GB 每月 0.15 美元,出站传输为每 GB 0.20 美元,已经比传统基础设施更具攻击性。随后 AWS 通过多轮降价和分层调整,将标准存储价格一路压到 us-east-1 区域约每 GB 每月 0.023 美元。背后既有硬件供应链规模化带来的成本下降,也有 AWS 主动争夺并防守市场份额的战略意图。

结果是,对象存储逐渐“商品化”。企业竞争不再只看每 GB 的裸价,而是看生态丰富度、存储分层、耐久性保障,以及各种附加费用,尤其是请求费和数据出站费,这些如今已成为客户最敏感的成本项之一。

更深远的遗产,是 S3 API 成为了对象存储的通用语言。如今,无论是本地部署还是其他云厂商,绝大多数对象存储产品都会明确宣称兼容 S3 API。到 2025 年,对象存储约占全球云存储市场的 46%,主要由 data lake、媒体库和备份等场景推动。2024 年,S3 与 Google Cloud Storage 合计占据全球对象存储市场 60% 以上,形成双头格局,而 S3 API 则成为可移植性的参考标准。

这种标准化也让 AWS 获得了巨大的结构性权力:对象操作语义、一致性模型、版本管理、生命周期策略等,都在事实上影响着企业的软件架构设计。企业一旦围绕 S3 构建系统,迁移到其他供应商的成本就会显著上升。

对 CIO/DSI 而言,S3 彻底改变了存储支出结构。过去以购买存储阵列、过度预留容量和定期更新设备为主的 capex 模式,逐步被更细粒度的 opex 模式取代,费用与实际使用量直接挂钩。这提升了资本配置效率,但也带来新的风险:账单波动更难预测,请求和流量费用可能迅速放大,若缺乏严格的数据治理,还会出现“bill shock”。

与此同时,存储分层的复杂化也让存储管理从单纯的容量管理,升级为真正的数据管理问题。企业必须依赖更复杂的生命周期策略来优化成本,而不只是简单扩容。S3 作为许多应用和 data lake 的“source of truth”地位,也进一步放大了数据可移植性与数据主权的重要性,这解释了为何兼容 S3 的本地部署和多云方案持续增长。

在生成式 AI 时代,S3 的地位进一步上升。它已成为训练数据集、feature stores、推理日志和模型输出的核心存储底座。随着非结构化数据在 AI 推动下快速膨胀,兼容 S3 的软件生态在 2024 年已被评估为数十亿美元规模,且预计到 2033 年年均增长率将超过 15%。这意味着,围绕 S3 形成的商业生态,已经不只是 AWS 的附属品,而是一个远超 AWS 本身的独立经济层。

Summary
Amazon Simple Storage Service (S3), launched by Amazon on March 14, 2006, has grown from an internal storage tool into a foundational layer of the global cloud, now holding more than 500,000 billion objects and handling up to 200 million requests per second. AWS’s S3 API became the de facto standard for object storage, shaping the offerings of rivals like Google Cloud Storage and driving a large ecosystem of S3-compatible software, while also locking in customers through portability and migration costs. The article highlights how S3 helped shift IT spending from capex to opex, but also introduced new challenges such as variable billing, request and egress fees, and the need for sophisticated data lifecycle management. It is now central to AI workloads, data lakes, backups, and analytics, reinforcing AWS’s market power while supporting a multi-billion-dollar storage ecosystem.

Launched on 14 March 2006, Amazon Simple Storage Service has reshaped enterprise storage from the ground up. What began as an internal Amazon building block for web-scale, resilient storage has become a backbone of the global cloud, turning its APIs into a de facto standard and changing IT cost models worldwide.

S3 was originally created to meet a practical need: Amazon wanted simple, elastic, highly durable storage for its own e-commerce applications. From day one, it was also opened to external developers, with a disruptive promise for the time: separate storage from physical infrastructure through a simple API and pay-as-you-go pricing. That was a sharp break from the SAN/NAS arrays and capex-heavy models that dominated the market in 2006.

Twenty years later, the scale is staggering. S3 stores more than 500,000 billion objects and handles up to 200 million requests per second—an economic and operational scale that almost no company can replicate internally. That critical mass created a powerful platform effect: data lakes, analytics, artificial intelligence, backup and archiving services have all been built around S3, deepening both technical and economic lock-in to AWS.

Pricing has been central to that expansion. S3 launched at $0.15 per GB per month for storage and $0.20 per GB for outbound transfers, already aggressive versus traditional infrastructure. Over time, AWS repeatedly cut prices and reorganized storage tiers, bringing standard storage in us-east-1 down to around $0.023 per GB per month. Those reductions reflect both hardware supply-chain scale and a deliberate strategy to win and defend market share against other hyperscalers.

The result is that object storage has become commoditized. Competition is no longer based only on raw cost per gigabyte, but on ecosystem depth, available storage classes, durability guarantees and ancillary fees—especially request charges and data egress, which remain a major pain point for customers.

S3’s most durable legacy may be its API standardization. S3 interfaces have become the common language of object storage, and most competing offerings—whether on-premise or from other cloud providers—now explicitly claim S3 compatibility. In 2025, object storage accounted for about 46% of the global cloud storage market, driven by data lakes, media libraries and backup use cases. Together, S3 and Google Cloud Storage represented more than 60% of the global object storage market in 2024, with S3 serving as the reference point for portability.

That dominance gives AWS significant leverage. The semantics of operations, consistency models, versioning and lifecycle policies all shape application architectures, which in turn raises migration costs for companies considering a switch.

For CIOs and IT leaders, S3 has fundamentally changed storage spending. The old capex model—buying arrays, overprovisioning capacity and refreshing hardware on fixed cycles—has given way to fine-grained opex tied to actual usage. That improves capital allocation, but it also introduces new risks: variable bills that are hard to predict, request and outbound traffic charges, and the ever-present danger of “bill shock” without strict data governance.

The proliferation of storage classes has also turned storage management into a data-management discipline. Cost optimization now depends on sophisticated lifecycle policies, not just capacity planning. At the same time, growing dependence on S3 as the “source of truth” for many applications and data lakes has made portability and data sovereignty more important, helping drive demand for on-premise and multi-cloud solutions that remain S3-compatible.

S3 is now central to generative AI as well. It underpins training datasets, feature stores, inference logs and model outputs. As unstructured data volumes surge with AI adoption, the market for S3-compatible software was valued at several billion dollars in 2024 and is projected to grow by more than 15% annually through 2033—evidence that the ecosystem built around the API now extends well beyond AWS itself.

Résumé
Lancé par Amazon le 14 mars 2006, S3 est devenu en vingt ans la colonne vertébrale du cloud mondial, avec plus de 500 000 milliards d’objets stockés et jusqu’à 200 millions de requêtes par seconde. En imposant ses API comme standard de facto, AWS a transformé le stockage objet en commodité, fait baisser les prix et déplacé les dépenses IT du capex vers l’opex, tout en renforçant la dépendance des entreprises à son écosystème. S3 est aujourd’hui central pour les data lakes, la sauvegarde et l’IA générative, et son influence dépasse désormais largement Amazon.

Lancé le 14 mars 2006, Amazon Simple Storage Service a transformé le stockage informatique en profondeur. En vingt ans, il est passé de brique interne d’Amazon à une colonne vertébrale du Cloud  mondial, imposant ses API comme standard de facto et redessinant les modèles de coûts IT à l’échelle planétaire.

D’un besoin interne à une infrastructure planétaire

Tout commence par un besoin pragmatique : doter Amazon d’un stockage web-scale, simple, élastique et résilient pour ses propres applications e-commerce. Le service est ouvert aux développeurs externes dès son lancement, avec une promesse radicalement nouvelle : découpler le stockage de l’infrastructure matérielle, via une API simple et un modèle de facturation à l’usage. Une rupture nette avec les baies SAN/NAS en mode capex qui dominaient alors le marché.

Vingt ans plus tard, le résultat donne le vertige : S3 stocke plus de 500 000 milliards d’objets et traite jusqu’à 200 millions de requêtes par seconde. Une échelle impossible à reproduire économiquement pour la quasi-totalité des entreprises en interne. Cette masse critique a engendré un effet de plateforme puissant : de nombreux services ( data lakes, analytics, intelligence artificielle, sauvegarde, archivage ) se sont construits autour de S3, renforçant au fil du temps le verrouillage économique et technique au bénéfice d’AWS.

De 0,15 $/Go à la commodité : la guerre des prix en accéléré

En 2006, S3 est lancé à 0,15 dollar par Go et par mois pour le stockage, et 0,20 dollar par Go pour les transferts sortants. Un positionnement déjà agressif face aux infrastructures traditionnelles. Au fil des années, AWS orchestre une série de baisses de prix et de réorganisations par paliers, jusqu’à descendre autour de 0,023 dollar par Go/mois pour le stockage standard en us-east-1.

Ces réductions successives reflètent à la fois les économies d’échelle réalisées sur la supply chain matérielle et une stratégie délibérée de conquête et de défense de parts de marché face aux autres hyperscalers.

Résultat : le stockage objet s’est progressivement « commoditisé ». La différenciation ne se joue plus sur le seul coût brut au gigaoctet, mais sur la richesse de l’écosystème, les classes de stockage disponibles, les garanties de durabilité et les frais annexes. Notamment les coûts de requêtes et de sortie de données qui constituent aujourd’hui un sujet sensible pour les clients.

L’API S3, un standard de facto pour l’économie de la donnée

L’un des héritages les plus durables de S3 est sans doute la standardisation de ses interfaces de programmation. Les API S3 sont devenues le langage commun du stockage objet : la majorité des offres concurrentes, qu’elles soient on-premise ou issues d’autres fournisseurs cloud, revendiquent aujourd’hui explicitement une compatibilité avec ces API. En 2025, le stockage objet représentait environ 46 % du marché du cloud storage mondial, tiré par les usages data lake, bibliothèques média et sauvegarde.

S3 et Google Cloud Storage représentaient ensemble plus de 60 % du marché mondial du stockage objet en 2024, formant un duopole où l’API S3 sert de référence pour la portabilité. Ce statut confère à AWS un pouvoir considérable : la sémantique des opérations, les modèles de cohérence, la gestion du versioning et des politiques de cycle de vie définissent indirectement les architectures logicielles et donc les coûts de migration pour les entreprises qui souhaiteraient changer de fournisseur.

Un impact profond sur les DSI : du capex à l’opex, et ses nouvelles contraintes

Du point de vue des DSI, S3 a profondément reconfiguré la structure des dépenses de stockage. Le modèle capex ( achat de baies, sur-provisionnement, cycles de rafraîchissement ) a cédé la place à un opex à granularité fine, corrélé au volume réel utilisé.

Ce basculement améliore l’allocation du capital, mais expose les organisations à de nouveaux risques : facturation variable difficile à anticiper, coûts liés aux requêtes et au trafic sortant, et risque de  » bill shock  » en l’absence d’une gouvernance rigoureuse des données.

La multiplication des classes de stockage a par ailleurs transformé la gestion du stockage en une véritable problématique de data management. L’optimisation économique passe désormais par des politiques de cycle de vie sophistiquées, bien au-delà de la simple gestion de capacité.

Dans le même temps, la dépendance croissante à S3 comme « source de vérité » de nombreuses applications et data lakes renforce l’enjeu de portabilité et de souveraineté des données, expliquant en partie l’essor des solutions on-premise ou multi-cloud compatibles S3.

Au cœur de l’ère IA : S3 comme socle de la nouvelle économie des modèles

Vingt ans après son lancement, S3 occupe une position centrale dans l’économie de l’intelligence artificielle générative. Il constitue le socle de stockage pour les jeux de données d’entraînement, les feature stores, les logs d’inférence et les sorties de modèles.

À mesure que le volume de données non structurées explose sous l’effet de l’IA, le marché des logiciels compatibles S3 est évalué à plusieurs milliards de dollars en 2024, avec une croissance annuelle projetée supérieure à 15 % jusqu’en 2033. Un signal fort : l’écosystème économique autour de cette API dépasse largement AWS lui-même.

Illustration : © Amazon DR

The post Amazon S3 fête ses 20 ans : l’API qui a colonisé le cloud appeared first on Silicon.fr.

AI Insight
Core Point

Amazon S3 迎来20周年,已从内部存储工具演变为云存储事实标准,深刻影响云成本结构、数据架构和AI基础设施。

Key Players

Amazon / AWS — 云计算与存储服务提供商,美国西雅图。

Google Cloud — 公有云平台,美国加州山景城。

Industry Impact
  • ICT: High — 云存储API标准化,重塑企业IT与数据架构
  • Computing/AI: High — 成为训练数据、推理日志和模型输出的核心存储底座
  • Terminals/Consumer Electronics: Low — 间接影响,主要通过云端内容与数据服务
  • Energy: Low — 无直接关联
  • Automotive: Low — 无直接关联
Tracking

Strongly track — S3 API兼容生态、云存储价格战和AI数据存储需求将持续影响云厂商竞争格局。

Related Companies
neutral
Amazon
mature
positive
AWS
mature
positive
positive
Categories
人工智能 软件 云计算
AI Processing
2026-03-26 17:19
openai / gpt-5.4-mini