Profile picture of Steve F.
Steve F.
Expert Cloudflare | AWS | Scaleway | Performance et Observabilité
Follow me
Generated by linktime
November 30, 2025
Dans de nombreux projets où j'interviens, la #performance base de données est un point de tension : forte charge lors des pics de trafic qui aboutissent à de la contention sur le nœud principal, et donc des latences inacceptables pour les utilisateurs. Pourtant, une optimisation simple reste souvent sous-utilisée : router les requêtes de lecture vers des réplicas. Plusieurs approches permettent de le faire proprement : - l’utilisation d’un proxy intelligent comme #ProxySQL, - ou l’exploitation des endpoints “Primary” et “Reader/Replica” proposés nativement par les opérateurs cloud de DB managées (ex #AWS #RDS) L’intérêt est double : D’abord, la #performance : répartir les requêtes de lecture réduit considérablement la pression sur l’instance primaire, qui peut se concentrer sur les opérations d’écriture et de transactions critiques. Les réplicas absorbent le reste, améliorant le débit global et la réactivité de l’application, surtout lors des montées en charge. Ensuite, le #coût. Sur RDS, augmenter la capacité du nœud principal peut devenir rapidement onéreux. Exploiter des réplicas moins coûteux permet de scaler horizontalement pour les lectures sans basculer sur une classe d’instance plus large. De plus, ces replicas sont souvent existants pour des raisons de haute disponibilité mais non exploités, ce qui engendre un gâchis. ProxySQL va encore plus loin en appliquant des règles intelligentes, du caching ou du failover automatique, ce qui permet un usage plus efficace des ressources existantes. Au final, router intelligemment les lectures vers des réplicas est un levier simple pour alléger le nœud principal, absorber plus de trafic et réduire la facture cloud, tout en gagnant en disponibilité. Une optimisation pragmatique, efficace et accessible dans la plupart des architectures modernes. La difficulté, comme bien souvent est organisationnelle : méconnaissance des développeurs et/ou de l'équipe infra chacun considérant ce sujet comme hors de leur sphère d'expertise...
Stay updated
Subscribe to receive my future LinkedIn posts in your mailbox.

By clicking "Subscribe", you agree to receive emails from linktime.co.
You can unsubscribe at any time.

10 Likes
November 30, 2025
Discussion about this post
Profile picture of Vincent Guesnard
Vincent Guesnard
Dirigeant | Infogérance, cybersécurité et hébergement performant pour sites e-commerce | Maîtrisez et sécurisez vos serveurs
1 month ago
Pour ceux qui disposent de réplicas "passifs", nous sommes nombreux à les utiliser afin de réduire le RPO à 30, voire 15 minutes sur la base de données pour gérer les incidents type PEBCAK, et ainsi s’éviter d’avoir à fragmenter puis rejouer des logs binaires ; dans ce contexte, on peut difficilement affirmer que les réplicas sont "complètement" inutiles, puisqu’ils contribuent directement au rétablissement d’activité dans des scénarios d’erreurs de manipulation. Tu serais surpris du nombre de situations critiques que cela permet de désamorcer chaque année, qu’elles soient générées par les salariés ou par les prestataires de nos clients.
Profile picture of Maxime V.
Maxime V.
Staff Cloud Operations Engineer
2 months ago
Assez surpris du message. Ici les équipes "infra" passent leur temps à dire aux devs "non" pour agrandir les serveurs et à les diriger vers l'équipe DBA pour qu'ils améliorent leurs requêtes et modèle de données... pas l'inverse !
Profile picture of Amine Amanzou
Amine Amanzou
Je transforme votre observabilité en avantage stratégique : moins d'incidents, plus d'innovation. | Expert Observabilité & SRE 📊
2 months ago
C’est fou ces difficultés organisationnelles. On a une tonne de méthodologies et d’intitulés de postes et on en revient aux mêmes difficultés. Impliquer ses ingénieurs et leur donner l’autonomie pour explorer les optimisations possibles.
Dans de nombreux projets où j'interviens, la #performance base de données est un point de tension : forte charge lors des pics de trafic qui aboutissent à de la contention sur le nœud principal, et donc des latences inacceptables pour les utilisateurs. Pourtant, une optimisation simple reste souvent sous-utilisée : router les requêtes de lecture vers des réplicas. Plusieurs approches permettent de le faire proprement : - l’utilisation d’un proxy intelligent comme #ProxySQL, - ou l’exploitation des endpoints “Primary” et “Reader/Replica” proposés nativement par les opérateurs cloud de DB managées (ex #AWS #RDS) L’intérêt est double : D’abord, la #performance : répartir les requêtes de lecture réduit considérablement la pression sur l’instance primaire, qui peut se concentrer sur les opérations d’écriture et de transactions critiques. Les réplicas absorbent le reste, améliorant le débit global et la réactivité de l’application, surtout lors des montées en charge. Ensuite, le #coût. Sur RDS, augmenter la capacité du nœud principal peut devenir rapidement onéreux. Exploiter des réplicas moins coûteux permet de scaler horizontalement pour les lectures sans basculer sur une classe d’instance plus large. De plus, ces replicas sont souvent existants pour des raisons de haute disponibilité mais non exploités, ce qui engendre un gâchis. ProxySQL va encore plus loin en appliquant des règles intelligentes, du caching ou du failover automatique, ce qui permet un usage plus efficace des ressources existantes. Au final, router intelligemment les lectures vers des réplicas est un levier simple pour alléger le nœud principal, absorber plus de trafic et réduire la facture cloud, tout en gagnant en disponibilité. Une optimisation pragmatique, efficace et accessible dans la plupart des architectures modernes. La difficulté, comme bien souvent est organisationnelle : méconnaissance des développeurs et/ou de l'équipe infra chacun considérant ce sujet comme hors de leur sphère d'expertise...
16 comments
November 30, 2025
#OpenTelemetry Collector : l'ombre d'un doute.. OpenTelemetry (Otel) est un ensemble open source de standards, bibliothèques et outils permettant de collecter, corréler et exporter des données de télémétrie (traces, métriques, logs, profiles) afin de faciliter l’observabilité des applications et systèmes. Dans une chaîne d’observabilité, l’OpenTelemetry Collector reçoit, transforme et exporte les données de télémétrie depuis les applications avec un protocole standardisé (OTLP), tandis que le backend (ex. stack Grafana LGTM, Datadog, Dynatrace, New Relic, Splunk, Elastic , Honeycomb ... ) les stocke, analyse et visualise pour l’observation et le diagnostic. La promesse pour les utilisateurs est d'utiliser un Collector neutre et standardisé et de le conserver même en cas de changement de backend, et ainsi éviter des opérations lourdes de décomissionnement, déploiement, etc.. Or je viens de voir 2 contenus (sources plus bas): - Datadog explique que le composant logiciel OpenTelemetry-Collector-contrib n'est pas destiné à être utilisé tel quel en production, et doit être repackagé (de façon assez complexe) - Grafana Labs recommande clairement d'utiliser son agent Alloy pour faire office de collecteur opentelemetry Mais donc... cela veut dire qu'il faudrait utiliser le collecteur de l'éditeur de votre backend or c'est exactement ce que OTel était censé éviter !! J'y vois un glissement de narratif et une prise en main d'Otel par les éditeurs... Est-ce du FUD ? Oui bien est-ce que le opentelemetry-collector-contrib n'a pas le même niveau de qualité que celui des éditeurs ? Qu'en pensez-vous ? Avez-vous le même sentiment ? PS : Ce post traite bien uniquement du composant Opentelemetry Collector et pas des SDK OpenTelemetry d'instrumentation des langages (Java, .Net, C++, Python, Golang, PHP..) -- Sources Datadog : https://lnkd.in/eYztZjgi Grafana Labs: https://lnkd.in/e8CYSAyc Recommandation Otel-collector-contrib : https://lnkd.in/exUsTacf Schema Otel : https://lnkd.in/eA4nPknH
16 comments
August 14, 2025
Votre site web est trop lent ? 4 actions pour améliorer le temps de chargement : 1) Placer un #CDN (Content-Delivery Network) devant votre site C'est assez simple et parfois gratuit (cf #Cloudflare) La plupart de vos ressources statiques (images, css, js...) devraient être mises en #cache, les #bots et les attaques seront filtrés ; votre serveur #Origine est soulagé et répond plus rapidement 2) Corriger les "#CacheControl" et dissocier les "Set-Cookies" Des "cache-control" non maîtrisés (hello "no-store" !) peuvent empêcher la mise en cache de vos ressources statiques au niveau du CDN et/ou des navigateurs. Rappel : les CDN ne mettent pas en cache les pages qui délivrent des #Cookies ou certaines extensions de fichiers par défaut (mais on peut toujours créer des #CacheRule avec doigté). 3) Activer Cloudflare Cache Reserve En supposant que le Cache-Control : #max-age soit pertinent ( je vois souvent 4h !) , le CDN ne gardera pas pour autant vos fichiers si votre traffic est insuffisant ou si un #POP (Datacenter local du CDN) manque d'espace de stockage Je vois parfois des clients (tenter de) monter des infras mondiales de "chauffage" de cache CDN pour contrer ce phénomène localisé d' #éviction Meilleure solution : activer l'option "payante" pour garantir que vos ressources statiques restent en cache jusqu'à 1 mois dans les POPs en question. 4) Mettre en place Cloudflare Images Cette solution (payante) est radicale : directement stocker vos images dans l'ensemble des POPs de votre CDN. Même si le cache local est vide, vos images sont présentes localement grâce à une synchro mondiale orchestrée par le CDN, et donc délivrées très rapidement à vos visiteurs. Bonus : le CDN peut opérer des transformations sur les images (changement de taille ou de résolution, ajout d'un filigrane...) en soulageant votre serveur Origine. Contrainte : il faut modifier vos URLs d'images, ou bien les ré-écrire en périphérie (grâce à des Workers par exemple) Et vous, avez-vous d'autres conseils ? Avez-vous des retours d'expérience à partager ?
15 comments
September 16, 2025