Qu’est-ce qui s’est passé ?
Le 20 octobre 2025, AWS a connu une panne d’envergure mondiale qui a affecté des centaines de services essentiels — réseaux sociaux, jeux vidéo, e-commerce, banques, objets connectés.
La région particulièrement touchée : US-EAST-1 (Virginie-Nord, États-Unis), zone stratégique de l’infrastructure AWS.
Selon AWS : des « taux d’erreurs accrus et des latences importantes pour plusieurs services ».
Les causes identifiées
1. Dysfonctionnement du DNS et des équilibreurs de charge
L’origine technique a été localisée : un bug dans le système d’automatisation de la gestion DNS utilisé par DynamoDB (base de données d’AWS) : un enregistrement DNS vide dans US-EAST-1 n’a pas été réparé automatiquement.
En parallèle, un sous-système chargé de surveiller la santé des network load balancers a déclenché une cascade de dysfonctionnements.
2. Effet domino et dépendance centrale
Parce que tant de services dépendent d’AWS pour l’hébergement, le stockage et la distribution, ce qui semble être un problème « interne » s’est propagé à l’ensemble de l’écosystème.
Par ailleurs, cette panne souligne la fragilité d’une infrastructure aujourd’hui très centralisée chez quelques grands fournisseurs de cloud.
Impact pour les entreprises et utilisateurs
- Des millions d’utilisateurs ont signalé des interruptions d’accès ou des temps de réponse très lents sur des plateformes comme Snapchat, Reddit, Fortnite, des banques et des objets connectés.
- Pour les entreprises clientes d’AWS, cette panne signifiait : perte de revenus, interruption de services critiques, perte de confiance.
- Un signal d’alarme pour l’écosystème : même les géants du cloud ne sont pas à l’abri d’un dysfonctionnement majeur.
Pourquoi c’est un problème stratégique
- Concentration de l’infrastructure cloud : AWS domine avec ~30 % du marché cloud ; une panne de cette ampleur montre qu’un seul point de défaillance peut avoir des effets globaux.
- Effet cascade : un bug dans un sous-système interne (DNS, équilibrage) peut dégrader l’ensemble du service.
- Besoin de résilience : de nombreuses entreprises n’avaient pas de plan de secours externe ou multi-cloud prêt à basculer.
- Réputation & confiance : pour AWS comme pour les clients, la fiabilité est un élément clé du business model.
Bonnes pratiques et enseignements pour les entreprises
- Prévoir un plan de continuité multi-cloud ou au minimum multi-région si vous êtes sur AWS.
- Surveiller les dépendances cachées : si un micro-service cloud s’écroule, quels en sont les effets secondaires ?
- Mettre en place des tests de résilience (chaos testing, basculations planifiées) pour vérifier que vos systèmes tiennent en cas de panne.
- Évaluer régulièrement vos fournisseurs cloud et leur stratégie de redondance.
- Communiquer rapidement et clairement en cas d’incident : transparence = confiance.
En résumé
La panne d’AWS d’octobre 2025 est un rappel brutal que même les infrastructures dites « cloud » ne sont pas infaillibles. Elle montre que la haute disponibilité ne s’achète pas par défaut : elle se conçoit, se planifie, se teste. Pour les entreprises digitales : penser résilience est désormais un impératif.

