<?xml version="1.0" encoding="UTF-8"?><rss xmlns:dc="http://purl.org/dc/elements/1.1/" xmlns:content="http://purl.org/rss/1.0/modules/content/" xmlns:atom="http://www.w3.org/2005/Atom" version="2.0"><channel><title><![CDATA[BrokenByMega]]></title><description><![CDATA[BrokenByMega]]></description><link>https://blog.brokenbymega.ovh</link><generator>RSS for Node</generator><lastBuildDate>Sun, 12 Apr 2026 14:25:00 GMT</lastBuildDate><atom:link href="https://blog.brokenbymega.ovh/rss.xml" rel="self" type="application/rss+xml"/><language><![CDATA[en]]></language><ttl>60</ttl><item><title><![CDATA[Dokploy : le PaaS self-hosted qui promet beaucoup, mais qui a encore du chemin]]></title><description><![CDATA[TL;DR
Dokploy est une plateforme PaaS open-source basée sur Docker et Docker Swarm qui simplifie le déploiement d'applications sur vos propres serveurs. Après un test sur un homelab avec une dizaine d]]></description><link>https://blog.brokenbymega.ovh/dokploy-le-paas-self-hosted-qui-promet-beaucoup-mais-qui-a-encore-du-chemin</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/dokploy-le-paas-self-hosted-qui-promet-beaucoup-mais-qui-a-encore-du-chemin</guid><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 16 Mar 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2>TL;DR</h2>
<p>Dokploy est une plateforme PaaS open-source basée sur Docker et Docker Swarm qui simplifie le déploiement d'applications sur vos propres serveurs. Après un test sur un homelab avec une dizaine d'applications et une stack de monitoring/logging, le constat est contrasté. L'interface web est agréable, le déploiement via webhooks Git fonctionne bien, et les fonctionnalités de base (certificats SSL, backups, bases de données managées) sont au rendez-vous. En revanche, dès qu'on sort de l'interface pour automatiser via de l'Infrastructure as Code, les choses se compliquent sérieusement. Peut-il remplacer un petit k3s pour réduire la complexité ? Pas aujourd'hui. Excellent pour déployer rapidement quelques applications, mais insuffisamment mature pour aller au-delà.</p>
<hr />
<h2>Qu'est-ce que Dokploy ?</h2>
<p><a href="https://dokploy.com">Dokploy</a> est un PaaS self-hosted et open-source (licence MIT), souvent présenté comme une alternative gratuite à Heroku, Vercel ou Netlify. Le projet, porté principalement par un développeur (Siumauricio), cumule aujourd'hui plus de <a href="https://github.com/Dokploy/dokploy">31 000 étoiles sur GitHub</a> et plus de 6 millions de téléchargements sur Docker Hub. Il repose sur une stack technique claire : Docker pour la conteneurisation, Docker Swarm pour l'orchestration multi-nœuds, et Traefik comme reverse-proxy avec gestion automatique des certificats Let's Encrypt.</p>
<p>L'installation tient en une commande <code>curl | sh</code> sur un VPS, ce qui donne accès en quelques minutes à un dashboard web sur le port 3000. Sous le capot, Dokploy déploie trois services Swarm : l'application elle-même, une base PostgreSQL interne, et un Redis.</p>
<hr />
<h2>Contexte du test</h2>
<p>Ce retour d'expérience s'appuie sur un déploiement réel en homelab : un nœud unique hébergeant une dizaine d'applications, accompagné d'une stack de monitoring et de logging.</p>
<p>La question de départ était simple : est-ce que Dokploy peut remplacer un petit k3s ? L'idée étant de réduire la complexité opérationnelle — Kubernetes, même dans sa version allégée, reste Kubernetes, avec sa courbe d'apprentissage, ses CRDs, ses manifestes YAML et son écosystème d'outils à maîtriser. Dokploy promettait une approche plus légère pour un périmètre similaire : déployer des applications conteneurisées, gérer des bases de données, exposer des services avec du TLS, le tout piloté par une interface web ou de l'IaC.</p>
<p>L'objectif du test était donc double : évaluer Dokploy comme outil de déploiement au quotidien via l'interface, puis tenter d'industrialiser la configuration via de l'Infrastructure as Code (Ansible et Terraform) pour voir si on pouvait atteindre le même niveau d'automatisation qu'avec k3s. C'est sur ce second volet que les limites sont apparues.</p>
<hr />
<h2>Ce que Dokploy fait bien</h2>
<h3>Déploiement d'applications</h3>
<p>Dokploy supporte le déploiement depuis GitHub, GitLab, Bitbucket et Gitea, avec déploiement automatique sur push via webhook. Le support des méthodes de build est varié : Nixpacks (détection automatique du langage), Heroku Buildpacks, ou Dockerfile personnalisé. On peut aussi déployer directement une image Docker ou un fichier Docker Compose.</p>
<p>En pratique, le workflow est fluide : on connecte son dépôt Git, on sélectionne la branche, et Dokploy gère le build et le déploiement. Pour une application standard (Node.js, Python, Go, PHP), ça fonctionne sans friction notable. Un point à noter cependant : la configuration du webhook côté GitLab (ou autre provider Git) reste une étape manuelle post-configuration. Dokploy ne provisionne pas automatiquement le webhook dans votre dépôt — il faut aller le créer soi-même. Ça fonctionne bien une fois en place, mais sur une dizaine d'applications, la manipulation devient répétitive. Et surtout, cette URL de webhook n'est pas récupérable via l'API (on y reviendra), ce qui empêche d'automatiser cette étape.</p>
<h3>Gestion des certificats SSL</h3>
<p>L'intégration Traefik fait le travail : on déclare un domaine dans l'interface, on coche HTTPS, et Let's Encrypt provisionne le certificat automatiquement. Le renouvellement est géré de manière transparente. C'est un gain de temps réel par rapport à la gestion manuelle de Certbot ou d'un reverse-proxy Nginx.</p>
<h3>Bases de données managées</h3>
<p>Dokploy propose la création en un clic de PostgreSQL, MySQL, MariaDB, MongoDB et Redis. Les volumes sont persistés automatiquement. La fonctionnalité de backup automatisé vers un stockage externe (S3 compatible) est un vrai plus pour un outil de cette catégorie.</p>
<h3>Monitoring intégré</h3>
<p>Le dashboard affiche en temps réel la consommation CPU, mémoire, réseau et stockage par conteneur — essentiellement un <code>docker stats</code> habillé d'une interface web. Pour un suivi basique, c'est suffisant : on voit d'un coup d'œil si un conteneur consomme anormalement ou si le nœud est sous pression. Mais c'est aussi là que s'arrête le confort. Dès qu'on veut passer à un monitoring plus professionnel — historisation des métriques, alerting, corrélation de logs, dashboards personnalisés — il faut déployer sa propre stack (Grafana, Prometheus, Loki, etc.), et c'est là que les choses se corsent (on y reviendra dans la section sur les limites).</p>
<h3>Templates one-click</h3>
<p>Dokploy propose une bibliothèque de templates pour déployer des outils open-source populaires (Supabase, Plausible, PocketBase, <a href="http://Cal.com">Cal.com</a>, etc.) en un clic. Pour bootstrapper un homelab ou un environnement de développement, c'est un gain de temps appréciable.</p>
<hr />
<h2>Là où ça se complique</h2>
<h3>L'API : un mur opaque</h3>
<p>C'est probablement le point le plus frustrant. Dokploy expose une API générée automatiquement depuis son routeur tRPC via le package <code>@dokploy/trpc-openapi</code>. Sur le papier, un Swagger est disponible. En pratique, c'est une autre histoire.</p>
<p>Le problème fondamental est documenté dans une <a href="https://github.com/Dokploy/dokploy/issues/2524">issue GitHub (#2524)</a> ouverte par un développeur qui souhaitait créer un provider Terraform : les schémas de réponse de l'API sont génériques. La spécification OpenAPI ne décrit pas la structure réelle des données renvoyées. On obtient un "successful response" sans savoir ce que contient réellement le JSON. Pour interagir avec l'API de manière fiable, il faut ouvrir les DevTools du navigateur et observer les trames réseau pour comprendre la structure des requêtes et des réponses. Ce n'est pas une méthode acceptable pour construire de l'automatisation fiable.</p>
<p>Concrètement, voici les murs rencontrés lors du test :</p>
<ul>
<li><p><strong>Webhooks non exposés</strong> : impossible de récupérer via l'API l'URL du webhook à transmettre à GitLab. Cette information n'est disponible que dans l'interface. Pour une dizaine d'applications, cela signifie dix allers-retours manuels dans le dashboard, puis dix configurations manuelles côté GitLab. L'automatisation de bout en bout est impossible.</p>
</li>
<li><p><strong>Métadonnées au format inconnu</strong> : le format attendu pour les métadonnées des ressources n'est documenté nulle part. On découvre la structure par essai-erreur ou en sniffant les requêtes du frontend.</p>
</li>
<li><p><strong>Hiérarchie projet/environnement/application opaque</strong> : Dokploy organise ses ressources en projets contenant des environnements contenant des applications. Mais la navigation dans cette arborescence via l'API est laborieuse. Récupérer l'identifiant d'un environnement, par exemple, nécessite de fouiller dans des réponses imbriquées dont la structure n'est pas documentée.</p>
</li>
<li><p><strong>Certaines informations uniquement via l'interface</strong> : des données visibles dans le dashboard ne sont tout simplement pas récupérables via l'API, ce qui rend impossible une automatisation complète sans passer par des clics manuels.</p>
</li>
</ul>
<h3>Infrastructure as Code : la voie étroite</h3>
<h4>Ansible</h4>
<p>Automatiser Dokploy en Ansible est faisable, mais fastidieux. Sans SDK ni documentation d'API exploitable, chaque interaction doit être construite manuellement via le module <code>uri</code> d'Ansible. Il faut d'abord reverse-engineerer les appels API en sniffant les requêtes de l'interface, puis les reproduire dans des playbooks. Sur le test réalisé, chaque nouvelle ressource à automatiser (création de projet, ajout d'un environnement, déploiement d'une application) a nécessité une session de reverse-engineering dans les DevTools avant de pouvoir écrire la tâche Ansible correspondante. Et certaines étapes restent manuelles — la récupération du webhook pour GitLab, par exemple, oblige à repasser par l'interface quoi qu'il arrive.</p>
<p>Chaque mise à jour de Dokploy peut potentiellement casser ces appels, puisqu'il n'y a pas de contrat d'API stable et versionné.</p>
<h4>Terraform</h4>
<p>Quelques providers communautaires existent sur le Terraform Registry. Le plus avancé au moment du test est <code>ahmedali6/dokploy</code>, qui couvre un périmètre déjà conséquent : applications, Docker Compose, bases de données, mounts, registries, clés SSH, providers Git (GitLab, Gitea), destinations de backup. C'est le provider qui s'en rapproche le plus d'une couverture fonctionnelle exploitable. D'autres existent (<code>j0bIT/dokploy</code>) mais restent plus limités.</p>
<p>Malgré tout, même avec le meilleur provider disponible, on bute sur les mêmes limites structurelles : les schémas de réponse incomplets de l'API Dokploy rendent le développement et la maintenance de ces providers fragiles. Et les lacunes de l'API se répercutent mécaniquement — ce qui n'est pas exposé par l'API ne peut pas être géré en Terraform. Les webhooks, par exemple, restent un angle mort.</p>
<h3>Docker Swarm : connaissances requises</h3>
<p>Dokploy abstrait Docker pour les cas simples, mais dès qu'on pousse la configuration, des connaissances solides en Docker et Docker Swarm deviennent indispensables.</p>
<p>Exemple concret : le déploiement d'une stack de monitoring/logging (type Grafana, Prometheus, Loki) via Dokploy. En soi, Dokploy permet de la déployer — c'est faisable via Docker Compose directement dans l'interface. Mais pour que les métriques et les logs remontent correctement, il faut que les conteneurs de monitoring puissent communiquer avec les conteneurs applicatifs. Et là, il faut jouer proprement avec les Docker networks : comprendre quels réseaux overlay Dokploy crée, rattacher manuellement les services au bon réseau, gérer les résolutions DNS internes entre services de projets différents. L'interface ne guide pas sur ces aspects — on est seul face à la configuration Docker.</p>
<p>L'ambition initiale était de piloter cette stack de monitoring en mode GitOps : la configuration versionnée dans un dépôt Git, déployée automatiquement via webhook. En théorie, Dokploy supporte ce workflow avec le déploiement Docker Compose depuis un dépôt. En pratique, le couplage entre la configuration réseau manuelle et le déploiement automatisé crée une zone grise : une partie de la configuration vit dans le dépôt Git, une autre dans l'interface Dokploy, et une troisième dans la configuration Docker sous-jacente. On est loin du GitOps pur où tout l'état désiré est décrit dans le code.</p>
<p>Ce n'est pas un reproche en soi — tout PaaS a ses limites d'abstraction — mais il faut en être conscient. Dokploy ne remplace pas la compétence Docker, il la complète. Et dès qu'on veut aller au-delà du déploiement d'une application web classique, cette compétence devient un prérequis, pas un bonus.</p>
<h3>Maturité du projet</h3>
<p>Dokploy en est à la version 0.x (v0.26.7 au moment de la rédaction). Le versioning sémantique indique clairement que l'API n'est pas encore considérée comme stable par les mainteneurs. Le rythme de release est soutenu (une release tous les 4-5 jours en moyenne), ce qui est à la fois un signe de vitalité et un risque de breaking changes fréquents.</p>
<p>Le projet est porté principalement par un seul développeur principal, assisté d'une communauté de contributeurs. C'est un point d'attention : la pérennité d'un outil d'infrastructure dépend fortement de la santé de son écosystème de maintenance.</p>
<hr />
<h2>Comparaison rapide avec les alternatives</h2>
<p>Dokploy n'est pas seul sur ce créneau. Coolify (~50 000 étoiles GitHub) est le concurrent le plus direct, avec une communauté plus large et une maturité légèrement supérieure. Kamal (37signals) prend une approche radicalement différente : pas de dashboard, pas de daemon serveur, juste du déploiement SSH piloté par YAML — idéal pour les équipes qui veulent zéro overhead. Dokku reste la référence historique pour le PaaS minimaliste façon Heroku.</p>
<p>Le positionnement de Dokploy se situe entre Coolify (plus mature, plus de features) et Dokku (plus simple, plus éprouvé). Son avantage principal est son approche Docker-native et son support natif de Docker Swarm pour le multi-nœuds, un domaine où Coolify est moins avancé.</p>
<h3>Et face à k3s ?</h3>
<p>C'était la question initiale du test, et la réponse est non — pas en l'état. Paradoxalement, k3s permet d'aller plus loin plus vite malgré la complexité inhérente de Kubernetes. L'écosystème Kubernetes offre un outillage IaC mature (Helm, Kustomize, ArgoCD, Flux), une API stable et documentée, et un modèle déclaratif natif. On peut atteindre un GitOps pur sans contorsion. Le monitoring s'intègre proprement via des standards établis (ServiceMonitor, PodMonitor). La gestion réseau est explicite et prédictible.</p>
<p>Dokploy réduit la complexité initiale — c'est indéniable. Mais il la réduit en sacrifiant la capacité d'automatisation et l'extensibilité. Pour trois ou quatre petites applications qu'on veut juste mettre en ligne rapidement, c'est un excellent choix. Pour un homelab de dix applications avec du monitoring, du logging, et une ambition GitOps, on retrouve de la complexité, sauf qu'elle est moins bien outillée que celle de Kubernetes.</p>
<hr />
<h2>Pour qui Dokploy est-il adapté ?</h2>
<p><strong>Bon candidat si :</strong></p>
<ul>
<li><p>Vous voulez déployer rapidement quelques applications web sans vous soucier de l'infrastructure sous-jacente</p>
</li>
<li><p>Vous gérez un homelab et voulez une interface unifiée pour vos services auto-hébergés</p>
</li>
<li><p>Vous êtes développeur solo ou en petite équipe et voulez un VPS sans payer de PaaS managé</p>
</li>
<li><p>Vous êtes à l'aise avec Docker et voulez un layer d'abstraction léger par-dessus</p>
</li>
<li><p>Vous acceptez de travailler principalement via l'interface web</p>
</li>
</ul>
<p><strong>Pas recommandé si :</strong></p>
<ul>
<li><p>Vous cherchez à remplacer un k3s ou un Kubernetes léger — vous retrouverez de la complexité, moins bien outillée</p>
</li>
<li><p>Vous avez besoin d'automatiser entièrement vos déploiements en IaC (Terraform, Ansible, Pulumi)</p>
</li>
<li><p>Vous visez une approche GitOps pure où tout l'état désiré est versionné dans Git — une partie de la configuration restera inévitablement dans l'interface</p>
</li>
<li><p>Vous avez besoin d'un monitoring professionnel intégré — le monitoring natif est basique et déployer sa propre stack demande des compétences Docker réseau solides</p>
</li>
</ul>
<hr />
<h2>Verdict</h2>
<p>Dokploy est un projet prometteur qui fait bien ce qu'il fait dans son périmètre d'usage principal : fournir une interface web agréable pour déployer rapidement des applications conteneurisées sur ses propres serveurs. Pour héberger quelques applications sans se soucier d'orchestration, de certificats ou de reverse-proxy, c'est un gain de temps réel. Le time-to-deploy pour une petite application est imbattable.</p>
<p>En revanche, l'outil atteint ses limites dès qu'on veut aller plus loin. L'écart entre l'expérience via l'interface et l'expérience via l'API est un frein majeur pour quiconque cherche à industrialiser. L'absence de schémas de réponse fiables dans l'API, le manque de documentation pour l'automatisation, et la nécessité de reverse-engineerer les appels réseau pour construire de l'IaC rendent le passage à l'échelle compliqué. Et pour répondre à la question initiale : non, Dokploy ne remplace pas un k3s aujourd'hui. La promesse de "moins de complexité que Kubernetes" se vérifie à l'installation et pour les cas simples, mais dès qu'on dépasse ce périmètre, on retrouve de la complexité — avec un outillage moins mature pour la gérer.</p>
<p>Le projet est encore jeune (version 0.x) et évolue vite. Les fondations sont saines, le rythme de développement est soutenu, et la communauté grandit. Si l'équipe Dokploy investit dans la stabilisation de son API et la documentation pour les usages programmatiques, l'outil pourrait devenir une référence dans l'écosystème PaaS self-hosted. En attendant, il faut le prendre pour ce qu'il est : un excellent outil de déploiement rapide, pas une plateforme d'infrastructure complète.</p>
<p><strong>Contexte du test</strong> : Homelab, 1 nœud, ~10 applications, stack monitoring/logging — Mars 2026</p>
<p><strong>Ressources mentionnées</strong> :</p>
<ul>
<li><p><a href="https://dokploy.com">Dokploy — Site officiel</a></p>
</li>
<li><p><a href="https://github.com/Dokploy/dokploy">Dokploy — GitHub</a></p>
</li>
<li><p><a href="https://github.com/Dokploy/dokploy/issues/2524">Issue #2524 — OpenAPI response definitions</a></p>
</li>
<li><p><a href="https://registry.terraform.io/providers/ahmedali6/dokploy/latest/docs">Provider Terraform ahmedali6/dokploy</a> (le plus avancé au moment du test)</p>
</li>
</ul>
]]></content:encoded></item><item><title><![CDATA[Guide Complet pour L'automatisation de la Conformité CIS sur Amazon EKS]]></title><description><![CDATA[Introduction
Dans cet article, je vais vous montrer comment automatiser la conformité CIS sur Amazon EKS en utilisant une approche multi-outils. Le but est de combiner plusieurs technologies pour atteindre une couverture de conformité optimale et séc...]]></description><link>https://blog.brokenbymega.ovh/guide-complet-pour-lautomatisation-de-la-conformite-cis-sur-amazon-eks</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/guide-complet-pour-lautomatisation-de-la-conformite-cis-sur-amazon-eks</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 09 Feb 2026 16:07:25 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Dans cet article, je vais vous montrer comment automatiser la conformité CIS sur Amazon EKS en utilisant une approche multi-outils. Le but est de combiner plusieurs technologies pour atteindre une couverture de conformité optimale et sécuriser efficacement vos clusters.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Nous allons utiliser Kyverno pour l'application des politiques Kubernetes-native, OpenTofu pour la validation de l'infrastructure et kube-bench pour un scanning de sécurité au niveau des nœuds. Cette solution met en œuvre 62 contrôles CIS couvrant la validation à l'époque de la planification, l'application à l'exécution et l'audit au niveau du système, atteignant plus de 95 % de couverture grâce à l'intégration stratégique de ces outils.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>En tant que professionnels de la technologie, assurer la sécurité et la conformité de nos environnements Kubernetes est crucial. Grâce à ce guide, vous pouvez intégrer ces outils directement dans votre pipeline de déploiement, garantissant que vos configurations respectent en permanence les normes sécuritaires de l'industrie.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En travaillant avec ces outils, j'ai constaté que tester avec des clusters KIND est un excellent moyen d'identifier les limitations réalistes de chaque outil dans le pipeline de validation de conformité. J'apprécie particulièrement comment Kyverno facilite l'application de politiques dynamiques et comment kube-bench offre une couverture complète au niveau des nœuds.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En somme, l'intégration de Kyverno, OpenTofu, et kube-bench fournit une solution robuste pour la conformité CIS d'Amazon EKS. Bien qu'il y ait des limitations inhérentes à chaque outil, cette approche multi-outils assure une couverture exceptionnelle et réduit considérablement les risques de sécurité. Pour plus de détails, je vous encourage à consulter l'article complet sur <a target="_blank" href="https://api.daily.dev/r/PYLuR8jQo">Daily Dev</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Créer un Pipeline de Contenu Automatisé avec Hugo, Obsidian et Git]]></title><description><![CDATA[Introduction
Dans cet article, je vais vous montrer comment j'ai mis en place un pipeline de contenu automatisé. En combinant Hugo, un générateur de sites statiques, avec Obsidian pour la prise de notes et Git pour le contrôle de version, nous pouvon...]]></description><link>https://blog.brokenbymega.ovh/creer-un-pipeline-de-contenu-automatise-avec-hugo-obsidian-et-git</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/creer-un-pipeline-de-contenu-automatise-avec-hugo-obsidian-et-git</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 05 Feb 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Dans cet article, je vais vous montrer comment j'ai mis en place un pipeline de contenu automatisé. En combinant Hugo, un générateur de sites statiques, avec Obsidian pour la prise de notes et Git pour le contrôle de version, nous pouvons simplifier le processus de création et de publication de contenu.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Je vous explique comment ces outils fonctionnent ensemble, en illustrant chaque étape grâce à leur implémentation sur mon site de test Hugo. L'idée est de rendre la création de contenu aussi fluide que possible.</p>
<h2 id="heading-utilite-pour-les-professionnels-de-la-tech">Utilité pour les professionnels de la tech</h2>
<p>Pour ceux d'entre nous dans le domaine de la technologie, ces outils sont un gain de temps considérable. Hugo génère rapidement des sites dynamiques, Obsidian garde mes idées bien organisées, et Git assure que tout changement peut être suivi avec précision.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En testant cette configuration sur mon site, j'ai découvert que la fluidité entre chaque outil est impressionnante. L'intégration de ces technologies a véritablement changé ma façon de gérer mes contenus.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En réunissant Hugo, Obsidian, et Git, j'ai pu établir une méthode de travail qui optimise non seulement mon temps mais aussi la qualité des contenus produits. Je vous encourage à essayer ce workflow en suivant ce lien : <a target="_blank" href="https://api.daily.dev/r/GcbFPfNON">lien de l'article</a>.</p>
]]></content:encoded></item><item><title><![CDATA[L'importance de l'architecture API-first dans les plateformes internes]]></title><description><![CDATA[Introduction
Plongeons dans le monde des plateformes internes où Viktor Farcic, expert en engineering, partage sa vision avant-gardiste sur l'importance de l'architecture API-first. Il nous rappelle que pour réussir, il est essentiel de suivre les pr...]]></description><link>https://blog.brokenbymega.ovh/limportance-de-larchitecture-api-first-dans-les-plateformes-internes</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/limportance-de-larchitecture-api-first-dans-les-plateformes-internes</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 02 Feb 2026 15:47:31 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Plongeons dans le monde des plateformes internes où Viktor Farcic, expert en engineering, partage sa vision avant-gardiste sur l'importance de l'architecture API-first. Il nous rappelle que pour réussir, il est essentiel de suivre les principes qui ont fait leurs preuves chez des fournisseurs de cloud renommés tels qu'AWS.</p>
<h2 id="heading-resume">Résumé</h2>
<p>La plupart des plateformes de développeurs internes (IDPs) sont actuellement bâties avec une approche axée sur l'interface utilisateur (UI), souvent au détriment d'une API backend robuste. Cela limite la capacité d'adaptation et le support multi-client. Viktor prône pour une conception orientée API qui favorise des politiques universelles, de multiples interfaces et une évolution plus simple de la plateforme.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>À l'heure où des outils basés sur Kubernetes comme Crossplane émergent, comprendre cette séparation entre logique et interface utilisateur devient crucial. Les développeurs profitent ainsi d'une flexibilité et d'une extensibilité accrues, un atout majeur dans un écosystème technologique en constante évolution.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En tant que développeur, j'ai souvent observé comment une approche UI-first peut ralentir les mises à jour et compliquer l'intégration de nouvelles fonctionnalités. L'adoption de l'API-first, en revanche, change la donne en offrant une base solide pour intégrer l'intelligence artificielle et répondre rapidement aux besoins des clients.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>L'avenir réside sans aucun doute dans ces plateformes bien pensées, où les serveurs MCP fournissent des outils orientés processus de travail, apportant ainsi une valeur réelle. Une réflexion sur l'API-first est donc indispensable pour tout développement futur de plateformes. Pour plus de détails, consultez l'article complet : <a target="_blank" href="https://api.daily.dev/r/qx16jMNI6">Lire plus</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Introduction de k0rdent v1.0.0 : Gestion Répartie de Conteneurs Kubernetes-Native]]></title><description><![CDATA[Introduction
Aujourd'hui, c'est avec une grande excitement que je vous présente k0rdent v1.0.0, une avancée révolutionnaire dans la gestion des conteneurs distribués au sein de Kubernetes. Ce nouvel outil est conçu pour gérer vos infrastructures avec...]]></description><link>https://blog.brokenbymega.ovh/introduction-de-k0rdent-v100-gestion-repartie-de-conteneurs-kubernetes-native</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/introduction-de-k0rdent-v100-gestion-repartie-de-conteneurs-kubernetes-native</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 29 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Aujourd'hui, c'est avec une grande excitement que je vous présente k0rdent v1.0.0, une avancée révolutionnaire dans la gestion des conteneurs distribués au sein de Kubernetes. Ce nouvel outil est conçu pour gérer vos infrastructures avec une efficacité sans précédent.</p>
<h2 id="heading-resume">Résumé</h2>
<p>K0rdent v1.0.0 introduit un environnement de gestion conteneurs qui est nativement intégré à Kubernetes, ciblant la gestion d'infrastructure à large échelle. Grâce à des API v1beta1 désormais stabilisées, des capacités de gestion de cluster améliorées via le KCM, et une intégration poussée de l'observabilité et de FinOps avec le module kOF, la plateforme se positionne comme un contrôle central de gestion du cycle de vie sur les environnements sur site, dans le cloud, et hybrides.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels de la technologie, cette version est un véritable bijou. Elle offre des améliorations clés telles que les ServiceTemplateChains pour des déploiements conditionnels, des valeurs globales pour des configurations cohérentes, et l'intégration du contrôleur IPAM. De plus, la surveillance des GPU NVIDIA et l'intégration d'OpenCost apportent une visibilité accrue des coûts.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En tant qu'utilisateur fréquent, mon expérience avec k0rdent a été transformée. La prise en charge multi-cluster de grade production a simplifié mon processus de gestion de clusters multiples, me permettant de concentrer mes efforts sur l'innovation plutôt que la maintenance.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>K0rdent v1.0.0 est bien plus qu'une simple mise à jour; c'est un nouveau standard pour la gestion d'infrastructure à l'ère du cloud et du Kubernetes. Pour un aperçu détaillé, je vous invite à lire l'article complet sur <a target="_blank" href="https://api.daily.dev/r/PH8XqILNr">ce lien</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Simplifiez le Traitement de Documents avec Docling]]></title><description><![CDATA[Introduction
J'ai découvert Docling récemment et cela a révolutionné ma façon de traiter les documents dans mes projets d'IA. Cette bibliothèque Python est un véritable atout pour quiconque travaille avec des formats variés comme les PDF, DOCX, image...]]></description><link>https://blog.brokenbymega.ovh/simplifiez-le-traitement-de-documents-avec-docling</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/simplifiez-le-traitement-de-documents-avec-docling</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 26 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>J'ai découvert Docling récemment et cela a révolutionné ma façon de traiter les documents dans mes projets d'IA. Cette bibliothèque Python est un véritable atout pour quiconque travaille avec des formats variés comme les PDF, DOCX, images, et fichiers audio.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Docling excelle par ses fonctionnalités avancées, notamment dans la compréhension des PDF. Elle détecte automatiquement la mise en page, reconnaît les structures de tableaux et analyse l'ordre de lecture. Une véritable bouffée d'air frais pour réduire le temps passé sur la manipulation manuelle des documents.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Avec des intégrations fluides aux frameworks d'IA populaires tels que LangChain et LlamaIndex, Docling est idéale pour les professionnels technologiques souhaitant optimiser leur flux de travail tout en assurant une exécution locale des données sensibles, grâce à ses capacités OCR enrichies.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Utiliser Docling a été une expérience enrichissante. Le choix entre l'API Python et l'interface CLI m'offre une flexibilité inestimable pour la conversion de documents. Je peux désormais me concentrer davantage sur l'analyse des données plutôt que sur leur préparation.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En conclusion, Docling est une ressource puissante pour quiconque cherche à intégrer un traitement de documents efficace dans leurs systèmes d'IA. Pour plus de détails sur cette bibliothèque, je recommande de lire cet <a target="_blank" href="https://api.daily.dev/r/pL5SuxDTA">article complet</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Révolutionner l'Intégration des Modèles avec MCP]]></title><description><![CDATA[Introduction
Plongeons dans le monde fascinant du Model Context Protocol (MCP), une avancée qui promet de transformer notre approche de l'intégration des modèles de langage.
Résumé
MCP offre une norme pour que les modèles de langage (LLM) interagisse...]]></description><link>https://blog.brokenbymega.ovh/revolutionner-lintegration-des-modeles-avec-mcp</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/revolutionner-lintegration-des-modeles-avec-mcp</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 22 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Plongeons dans le monde fascinant du Model Context Protocol (MCP), une avancée qui promet de transformer notre approche de l'intégration des modèles de langage.</p>
<h2 id="heading-resume">Résumé</h2>
<p>MCP offre une norme pour que les modèles de langage (LLM) interagissent avec divers outils, éliminant le casse-tête de connectivité où chaque outil nécessite une intégration spécifique avec chaque modèle. Il permet la découverte dynamique d'outils et l'interopérabilité plug-and-play entre systèmes, comme Claude et Cursor, révolutionnant ainsi le développement de l'intelligence artificielle.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels de la tech, MCP est une bouffée d'air frais. Il change la donne en simplifiant le processus de connexion des outils aux modèles grâce à son architecture Host-Client-Server et sa communication via JSON-RPC. Que ce soit sur Stdio ou HTTP, MCP assure une flexibilité et une efficacité accrues.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Dans ma propre pratique, j'ai pu constater à quel point MCP facilite le système d'ingénierie par rapport à la simple ingénierie de prompt. Cette transition a non seulement optimisé mes flux de travail, mais a également libéré du temps pour explorer de nouvelles opportunités créatives.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>Le Model Context Protocol est plus qu'une simple innovation; c'est une véritable évolution dans le domaine de l'intelligence artificielle. En nous libérant des contraintes de l'intégration complexe, MCP nous pousse vers un futur où les systèmes collaborent de manière transparente.</p>
<p><a target="_blank" href="https://api.daily.dev/r/61UGjGkDM">Lire l'article complet ici</a></p>
]]></content:encoded></item><item><title><![CDATA[Frappe HR : une solution RH et paie complète et open-source]]></title><description><![CDATA[Introduction
En tant qu'utilisateur passionné par les logiciels open-source, j'ai récemment découvert Frappe HR, une solution innovante pour la gestion des ressources humaines et la paie. Ce logiciel se démarque par sa richesse fonctionnelle et son i...]]></description><link>https://blog.brokenbymega.ovh/frappe-hr-une-solution-rh-et-paie-complete-et-open-source</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/frappe-hr-une-solution-rh-et-paie-complete-et-open-source</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 19 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>En tant qu'utilisateur passionné par les logiciels open-source, j'ai récemment découvert Frappe HR, une solution innovante pour la gestion des ressources humaines et la paie. Ce logiciel se démarque par sa richesse fonctionnelle et son intégration fluide avec ERPNext.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Frappe HR est un logiciel complet et open-source dédié à la gestion des ressources humaines et de la paie, comprenant plus de 13 modules pour la gestion des employés, le suivi des congés, les demandes de remboursement et l'évaluation des performances. Initialement intégré dans ERPNext, il a pris son envol en tant que produit autonome en raison de sa croissance et de sa maturité. Construit sur le Frappe Framework, le logiciel offre une intégration robuste avec ERPNext et propose des fonctionnalités avancées comme la gestion de la présence basée sur la géolocalisation et une application mobile. Les utilisateurs peuvent l'installer sur Frappe Cloud ou en local avec Docker et suivre les directives de développement pour contribuer.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels de la technologie, Frappe HR offre des avantages considérables en termes de personnalisation et de flexibilité. La possibilité de le configurer en local avec Docker est particulièrement appréciée pour les tests et le développement. La nature open-source du projet permet également de participer activement à son amélioration.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Après avoir exploré diverses solutions RH, l'expérience avec Frappe HR a été enrichissante. La facilité d'installation et l'intégration avec ERPNext m'ont permis d'optimiser nos processus internes rapidement. L'application mobile est un atout majeur pour gérer les opérations en déplacement.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En somme, Frappe HR est une solution idéale pour les organisations cherchant une gestion RH efficace et adaptable. Son interface intuitive et ses fonctionnalités avancées en font un outil incontournable pour les professionnels cherchant à améliorer leur gestion des ressources humaines.</p>
<p>Pour en savoir plus, consultez l'article complet ici : <a target="_blank" href="https://api.daily.dev/r/yg41W995B">lien de l'article</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Exploration d'Alchemy : Infrastructure-as-Code Réinventée en TypeScript]]></title><description><![CDATA[Introduction
Alchemy est un framework de nouvelle génération pour l'infrastructure en tant que code, entièrement conçu en TypeScript natif ESM. Dans cet article, je vais partager mes réflexions sur les avantages de cette approche pour la gestion des ...]]></description><link>https://blog.brokenbymega.ovh/exploration-dalchemy-infrastructure-as-code-reinventee-en-typescript</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/exploration-dalchemy-infrastructure-as-code-reinventee-en-typescript</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 15 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Alchemy est un framework de nouvelle génération pour l'infrastructure en tant que code, entièrement conçu en TypeScript natif ESM. Dans cet article, je vais partager mes réflexions sur les avantages de cette approche pour la gestion des ressources cloud.## Résumé</p>
<p>Alchemy élimine la nécessité de multiples langages et chaînes d'outils complexes, offrant ainsi une solution allégée et flexible grâce à des fonctions TypeScript asynchrones et composables. Directement connecté aux API des services cloud, il simplifie la gestion des infrastructures et s'intègre parfaitement dans l'écosystème TypeScript.## Utilité pros tech</p>
<p>Pour les développeurs, Alchemy représente un tournant significatif. La possibilité de gérer les ressources sans quitter l'environnement TypeScript réduit le temps d'apprentissage et accroît l'efficacité. Cette approche unifiée est particulièrement bénéfique pour ceux familiarisés avec ce langage.## Mon expérience</p>
<p>En tant que développeur, j'ai trouvé Alchemy assez intuitif. La capacité à composer des fonctions asynchrones facilite la gestion des tâches complexes. Sa nature modulaire permet d'adapter facilement l'outil à mes besoins spécifiques.## Conclusion</p>
<p>Alchemy change la donne pour les développeurs TypeScript cherchant à gérer des infrastructures cloud de manière efficace. En simplifiant l'accès aux API et en utilisant un langage unique, il incarne la simplicité et la flexibilité souhaitées dans le développement moderne. Pour approfondir, consultez l'article complet ici : <a target="_blank" href="https://api.daily.dev/r/5RGsB3ghd">lire l'article complet</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Scrappy : Libérer la Créativité avec des Applications Personnalisées]]></title><description><![CDATA[Introduction
Scrappy est un outil prototype novateur pour tous ceux qui souhaitent créer des applications maison. Conçu pour les bricoleurs, il permet de développer des logiciels personnalisés sans compétence poussée en programmation. 
Résumé
Dans un...]]></description><link>https://blog.brokenbymega.ovh/scrappy-liberer-la-creativite-avec-des-applications-personnalisees</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/scrappy-liberer-la-creativite-avec-des-applications-personnalisees</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 12 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Scrappy est un outil prototype novateur pour tous ceux qui souhaitent créer des applications maison. Conçu pour les bricoleurs, il permet de développer des logiciels personnalisés sans compétence poussée en programmation. </p>
<h2 id="heading-resume">Résumé</h2>
<p>Dans un environnement inspiré de Figma, Scrappy vous offre une toile sur laquelle intégrer des éléments interactifs. Grâce à cette plateforme, il devient simple de créer et partager des applications uniques, idéales pour répondre à des besoins spécifiques que les offres grand public ne comblent pas.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels de la tech, Scrappy amène une solution pratique pour expérimenter sans limites. Il ouvre des possibilités de création collaborative, facilitant l’innovation et l’adaptation rapide à de nouvelles idées ou projets.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En utilisant Scrappy, j’ai découvert à quel point il est gratifiant de concevoir des outils sur mesure. La flexibilité offerte par cette plateforme m’a permis de réaliser une application parfaitement adaptée à mes besoins, tout en me donnant la satisfaction de l'avoir créée moi-même.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>Scrappy vise à démocratiser la création logicielle, stimulant ainsi la créativité et offrant des solutions customisées. Une vraie révolution pour tous ceux qui cherchent à s’épanouir au-delà des limites imposées par les logiciels traditionnels.</p>
<p>Pour en savoir plus, consultez l'article complet sur <a target="_blank" href="https://api.daily.dev/r/QsCA1M7uS">ce lien</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Améliorez Votre Workflow Kubernetes avec Ces Outils Incontournables]]></title><description><![CDATA[Introduction
Plonger dans le développement Kubernetes peut être complexe. Heureusement, plusieurs outils DevX essentiels sont là pour simplifier notre travail quotidien.
Résumé
Dans cet article, j'explore six outils clés qui améliorent considérableme...]]></description><link>https://blog.brokenbymega.ovh/ameliorez-votre-workflow-kubernetes-avec-ces-outils-incontournables</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/ameliorez-votre-workflow-kubernetes-avec-ces-outils-incontournables</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 08 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Plonger dans le développement Kubernetes peut être complexe. Heureusement, plusieurs outils DevX essentiels sont là pour simplifier notre travail quotidien.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Dans cet article, j'explore six outils clés qui améliorent considérablement le développement sur Kubernetes. Parmi eux, mirrord, Tilt et vCluster se démarquent en facilitant le débogage, réduisant les redeploiements et standardisant les environnements.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Ces outils vous connectent directement à une infrastructure réelle, automatisent vos processus et fournissent des environnements isolés ou cohérents. Imaginez améliorer la productivité de votre équipe tout en bénéficiant d'une mise en place simplifiée.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Utilisant Tilt et vCluster au quotidien, j'ai remarqué une amélioration significative de mes workflows, les rendant plus fluides et moins sujets aux erreurs.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En intégrant ces outils dans vos pratiques DevX, vous pouvez véritablement booster votre productivité et celle de votre équipe dans le développement Kubernetes. Pour plus de détails, consultez l'article complet <a target="_blank" href="https://api.daily.dev/r/o0Fy2AJrL">ici</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Umami : une alternative axée sur la confidentialité à Google Analytics]]></title><description><![CDATA[Introduction
Umami est une solution d'analyse de trafic internet qui met l'accent sur la confidentialité. Contrairement à Google Analytics, Umami n'exploite pas les données personnelles des utilisateurs. 
Résumé
Ce guide présente Umami comme une alte...]]></description><link>https://blog.brokenbymega.ovh/umami-une-alternative-axee-sur-la-confidentialite-a-google-analytics</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/umami-une-alternative-axee-sur-la-confidentialite-a-google-analytics</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 05 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Umami est une solution d'analyse de trafic internet qui met l'accent sur la confidentialité. Contrairement à Google Analytics, Umami n'exploite pas les données personnelles des utilisateurs. </p>
<h2 id="heading-resume">Résumé</h2>
<p>Ce guide présente Umami comme une alternative simple à installer et performante. Il nécessite Node.js et supporte les bases de données MariaDB, MySQL et PostgreSQL. Vous trouverez ici des instructions pour l'installation via Yarn et Docker, ainsi que des informations sur les identifiants de connexion par défaut et la configuration du serveur pour un déploiement facile.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour ceux qui cherchent à garder leurs données d'analyse web en interne, Umami est un choix judicieux. Son intégration avec des systèmes de bases de données populaires le rend très adaptable aux environnements existants. De plus, sa légèreté garantie une empreinte minimale sur votre infrastructure.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Personnellement, j'ai trouvé l'installation d'Umami via Docker étonnamment rapide. La documentation est claire, et avec les identifiants de connexion par défaut, la mise en route se fait sans encombre. Cette facilité d'accès permet de tester Umami et d'ajuster sa configuration à ses besoins spécifiques.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>Umami représente une valeur sûre pour qui souhaite un outil d'analyse web confidentiel et efficace. Son installation minimaliste et sa compatibilité avec différentes bases de données en font un outil agile pour les développeurs soucieux de la performance et de la protection des données utilisateur.</p>
<p>Pour plus d'informations, consultez l'article complet sur <a target="_blank" href="https://api.daily.dev/r/2wmTHVXyh">cet article</a>.</p>
]]></content:encoded></item><item><title><![CDATA[HarborGuard : Révolutionner la Sécurité des Conteneurs]]></title><description><![CDATA[Introduction
Dans le monde en constante évolution de la sécurité des conteneurs, il est essentiel de disposer d'outils robustes et intégrés. HarborGuard se présente comme une solution complète pour répondre à ce besoin.
Résumé
HarborGuard incarne l'i...]]></description><link>https://blog.brokenbymega.ovh/harborguard-revolutionner-la-securite-des-conteneurs</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/harborguard-revolutionner-la-securite-des-conteneurs</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 01 Jan 2026 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Dans le monde en constante évolution de la sécurité des conteneurs, il est essentiel de disposer d'outils robustes et intégrés. HarborGuard se présente comme une solution complète pour répondre à ce besoin.</p>
<h2 id="heading-resume">Résumé</h2>
<p>HarborGuard incarne l'innovation en consolidant divers outils de sécurité, tels que Trivy, Grype, et bien d'autres, dans une interface web unifiée. Propulsé par Next.js 15 et React 19, il offre des visualisations interactives qui facilitent la gestion des vulnérabilités.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels techniques, cette plateforme propose le suivi historique des analyses et une surveillance en temps réel. Les fonctionnalités prêtes pour l'entreprise, telles que les API REST et l'exportation en masse de rapports, améliorent l'efficacité opérationnelle.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>J'ai trouvé que HarborGuard simplifie énormément les flux de travail en centralisant des outils en ligne de commande disparates dans un tableau de bord unique. L'analyse par couche des images Docker avec des regroupements basés sur la sévérité a été particulièrement utile.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En conclusion, HarborGuard redéfinit la sécurité des conteneurs en rendant les processus laborieux plus accessibles et en renforçant notre approche proactive face aux menaces potentielles. Pour plus de détails, consultez l'article complet <a target="_blank" href="https://api.daily.dev/r/yActVcTw1">ici</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Automatisation : Libérer le Potentiel de l'Équipe Technique]]></title><description><![CDATA[Introduction
Au début d'une entreprise, nous nous appuyons souvent sur des processus manuels qui semblent pratiques. Mais à mesure que l'entreprise grandit, ces mêmes processus deviennent des obstacles. Comment éviter ce piège ?
Résumé
Un cadre en qu...]]></description><link>https://blog.brokenbymega.ovh/automatisation-liberer-le-potentiel-de-lequipe-technique</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/automatisation-liberer-le-potentiel-de-lequipe-technique</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 29 Dec 2025 07:00:06 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Au début d'une entreprise, nous nous appuyons souvent sur des processus manuels qui semblent pratiques. Mais à mesure que l'entreprise grandit, ces mêmes processus deviennent des obstacles. Comment éviter ce piège ?</p>
<h2 id="heading-resume">Résumé</h2>
<p>Un cadre en quatre étapes offre une solution : effectuez d'abord la tâche manuellement, documentez ensuite le processus comme une procédure opérationnelle standard, convertissez les procédures stables en scripts, et enfin développez des outils en libre-service pour les non-ingénieurs. Cette méthode non seulement propulse l'équipe informatique, mais habilite aussi les autres équipes à être autonomes.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>L'automatisation n'est pas qu'un mot à la mode ; c'est une nécessité. En enlevant l'ingénierie comme goulot d'étranglement, nous permettons à chaque équipe de s'épanouir. Prenons l'exemple d'un CMS pour les types de rendez-vous, qui a permis d'économiser un mois de travail d'ingénierie chaque année.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En adoptant cette approche, j'ai pu observer une diminution significative du temps dédié aux tâches répétitives, libérant ainsi de précieuses ressources pour l'innovation. La transformation de ces procédures a drastiquement amélioré notre efficacité.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>Automatiser avec stratégie c'est donner de l'espace pour une pensée plus innovante. Je ne saurais trop recommander ce cadre qui, je l'espère, révolutionnera votre façon de travailler. Découvrez-en plus à <a target="_blank" href="https://api.daily.dev/r/Dy4XJeiiH">cet article</a>.</p>
]]></content:encoded></item><item><title><![CDATA[Exploration des Prompts IA Complets et des Modèles chez Theauthor]]></title><description><![CDATA[Introduction
J'ai récemment mis la main sur les prompts systèmes et modèles d'IA complets de Theauthor, incluant v0, Manus et Cursor, qui sont basés sur Sonnet-3.7. Ces ressources, d'une longueur impressionnante de plus de 5000 lignes, représentent u...]]></description><link>https://blog.brokenbymega.ovh/exploration-des-prompts-ia-complets-et-des-modeles-chez-theauthor</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/exploration-des-prompts-ia-complets-et-des-modeles-chez-theauthor</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 29 Dec 2025 07:00:03 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>J'ai récemment mis la main sur les prompts systèmes et modèles d'IA complets de Theauthor, incluant v0, Manus et Cursor, qui sont basés sur Sonnet-3.7. Ces ressources, d'une longueur impressionnante de plus de 5000 lignes, représentent une mine d'or pour quiconque souhaite explorer les profondeurs de la programmation d'IA moderne.</p>
<h2 id="heading-resume">Résumé</h2>
<p>La bibliothèque inclut divers fichiers texte et dossiers, fournissant des détails nuancés sur ces systèmes. La dernière mise à jour remonte au 11 mars 2025, avec d'autres modifications prévues pour demain. Ces documents sont essentiels pour comprendre la structure et la fonctionnalité des IA avancées d'aujourd'hui.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>D'un point de vue technique, ces modèles sont cruciaux pour ceux qui cherchent à optimiser leurs applications d'IA ou à simplement comprendre les coulisses de technologies aussi robustes que Sonnet-3.7. L'intégration fluide de mots-clés techniques rend ces documents inestimables pour les développeurs.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Personnellement, parcourir ces documents a été une expérience enrichissante. J'ai pu approfondir ma compréhension des modèles IA et ai trouvé de nombreuses applications pratiques pour les intégrer dans mes projets personnels et professionnels.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En conclusion, les modèles de Theauthor offrent une opportunité exceptionnelle de découvrir et de tirer parti des avancées significatives dans le domaine des systèmes d'IA. Je suis impatient de voir ce que la prochaine mise à jour apportera.</p>
<p><a target="_blank" href="https://api.daily.dev/r/Y6VTQeglD">Lien vers l'article complet</a></p>
]]></content:encoded></item><item><title><![CDATA[Découverte de POML : la nouvelle norme de Microsoft pour l'ingénierie des prompts]]></title><description><![CDATA[Introduction
Aujourd'hui, je voudrais vous parler de POML, le tout nouveau langage de balisage de Microsoft conçu pour l'ingénierie structurée des prompts avec de grands modèles de langage. Avec son syntaxe semblable à celle de HTML et ses composants...]]></description><link>https://blog.brokenbymega.ovh/decouverte-de-poml-la-nouvelle-norme-de-microsoft-pour-lingenierie-des-prompts</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/decouverte-de-poml-la-nouvelle-norme-de-microsoft-pour-lingenierie-des-prompts</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 29 Dec 2025 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Aujourd'hui, je voudrais vous parler de POML, le tout nouveau langage de balisage de Microsoft conçu pour l'ingénierie structurée des prompts avec de grands modèles de langage. Avec son syntaxe semblable à celle de HTML et ses composants sémantiques, POML vise à révolutionner notre approche des prompts.</p>
<h2 id="heading-resume">Résumé</h2>
<p>POML intègre une gestion complète des données pour différents types de fichiers, un système de style rappelant CSS, un moteur de gabarit intégré, et des outils de développement tels qu'une extension pour VS Code et des SDK pour Node.js et Python. Ces caractéristiques sont destinées à aborder les défis fréquents dans le développement de prompts.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels de la technologie, POML offre une structure et une maintenabilité supérieures, ainsi que des capacités d'intégration des données améliorées. En utilisant ces outils, on peut optimiser le flux de travail et améliorer la productivité de manière significative.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Personnellement, j'ai trouvé que POML rend le processus de développement beaucoup plus fluide. L'intégration de styles similairres à CSS et la possibilité d'utiliser des gabarits m'ont permis de gérer mes projets avec plus de précision et de flexibilité.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En résumé, POML représente une avancée considérable pour ceux d'entre nous qui travaillent quotidiennement avec les modèles de langage étendus. Pour un aperçu plus approfondi, je vous invite à consulter l'article complet sur [Daily.dev](https://api.daily.dev/r/X26NEdMWd).</p>
]]></content:encoded></item><item><title><![CDATA[Une nouvelle ère de développement avec Single Front Door]]></title><description><![CDATA[Introduction
Dans le monde du développement logiciel, la diversité des outils et des flux de travail peut souvent être déroutante. En tant que développeur, je cherche constamment à simplifier mes processus tout en maintenant un haut niveau d'efficaci...]]></description><link>https://blog.brokenbymega.ovh/une-nouvelle-ere-de-developpement-avec-single-front-door</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/une-nouvelle-ere-de-developpement-avec-single-front-door</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 25 Dec 2025 07:00:03 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Dans le monde du développement logiciel, la diversité des outils et des flux de travail peut souvent être déroutante. En tant que développeur, je cherche constamment à simplifier mes processus tout en maintenant un haut niveau d'efficacité. C'est là qu'intervient Single Front Door (SFD) de Mercari, une interface unifiée pour gérer et intégrer nos outils de développement.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Mercari a construit la plateforme Single Front Door (SFD), qui consolide divers outils et flux de travail des développeurs en un point d'entrée unique. SFD utilise Argo Workflows pour exécuter les opérations GitOps via le CLI ou des intégrations IDE alimentées par l'IA, grâce au Model Context Protocol. Les défis techniques incluaient la gestion des identifiants basés sur OAuth pour assurer un contrôle d'accès approprié à grande échelle, et la configuration de l'IAM avec RBAC Kubernetes pour un accès sécurisé aux services externes comme GCP et GitHub.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Ce système vise à devenir un moteur de flux de travail modulaire avec des blocs de construction réutilisables pour la provision d'infrastructure, la configuration de services et les opérations CI/CD. En tant que professionnel de la tech, je trouve cette approche particulièrement utile pour sa capacité à simplifier les tâches complexes et à réduire les erreurs humaines.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Intégrer SFD dans mon flux de travail a été une révélation. La transition vers une interface unique m'a non seulement fait gagner du temps, mais a également réduit les frictions entre différents outils que j'utilisais auparavant. Grâce à l'intégration fluide avec mon IDE préféré, j'ai pu automatiser davantage de processus, ce qui m'a permis de me concentrer sur l'essentiel : coder.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En somme, l'interface SFD de Mercari représente une avancée significative dans le monde du développement. Elle offre une solution efficace aux développeurs cherchant à rationaliser leurs opérations. Je recommande à tout professionnel du développement de l'adopter pour améliorer ses pratiques et gagner en efficacité.</p>
<p><a target="_blank" href="https://api.daily.dev/r/veG1qnzxV">Lire l'article complet</a></p>
]]></content:encoded></item><item><title><![CDATA[Codigram : Transformez vos descriptions en diagrammes avec l'IA]]></title><description><![CDATA[Introduction
Je suis toujours à la recherche d'outils innovants pour simplifier mon flux de travail. Récemment, j'ai découvert Codigram, une application web qui utilise l'intelligence artificielle pour transformer des descriptions textuelles en diagr...]]></description><link>https://blog.brokenbymega.ovh/codigram-transformez-vos-descriptions-en-diagrammes-avec-lia</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/codigram-transformez-vos-descriptions-en-diagrammes-avec-lia</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 25 Dec 2025 07:00:00 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Je suis toujours à la recherche d'outils innovants pour simplifier mon flux de travail. Récemment, j'ai découvert Codigram, une application web qui utilise l'intelligence artificielle pour transformer des descriptions textuelles en diagrammes visuels. Vous n'avez besoin ni d'installation, ni d'inscription. Tout se passe directement dans votre navigateur.</p>
<h2 id="heading-resume">Résumé</h2>
<p>Codigram est une application qui permet aux utilisateurs de créer des diagrammes en temps réel à partir de simples descriptions textuelles. L'accent est mis sur l'édition en temps réel, avec des mises à jour instantanées et des fonctionnalités de chat intégrées. Il offre également des capacités d'édition de code direct.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Ce qui rend Codigram particulièrement utile pour les professionnels de la tech, c'est sa simplicité et son efficacité. Imaginez pouvoir partager des idées complexes avec votre équipe sans devoir installer des logiciels lourds. Codigram vous permet de visualiser et de modifier des concepts en direct. C'est parfait pour les développeurs et les chefs de projet qui nécessitent des diagrammes précis et rapides.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>En l'utilisant, j'ai été impressionné par la fluidité de l'application. La possibilité de voir mes modifications apparaître en temps réel m'a permis de rester concentré sur l'essentiel. Les fonctionnalités de chat ont simplifié la collaboration avec mes collègues, rendant le processus encore plus interactif.</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>Codigram est un outil puissant pour tous ceux qui cherchent à simplifier la traduction de textes en diagrammes. Sa facilité d'utilisation et ses fonctionnalités avancées en font un choix idéal pour dynamiser les interactions professionnelles.</p>
<p><a target="_blank" href="https://api.daily.dev/r/gtcnzhOYC">Lire l'article complet</a></p>
]]></content:encoded></item><item><title><![CDATA[Construire un pipeline CI/CD de production avec GitOps et GitHub Actions]]></title><description><![CDATA[## Introduction Optimiser ses déploiements applicatifs est un enjeu clé pour toute équipe technique. Grâce aux bonnes pratiques DevOps et à la puissance des outils comme GitHub Actions, ArgoCD et Helm, il est désormais possible d'automatiser l'intégr...]]></description><link>https://blog.brokenbymega.ovh/construire-un-pipeline-cicd-de-production-avec-gitops-et-github-actions</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/construire-un-pipeline-cicd-de-production-avec-gitops-et-github-actions</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Mon, 22 Dec 2025 07:00:00 GMT</pubDate><content:encoded><![CDATA[<p>## Introduction Optimiser ses déploiements applicatifs est un enjeu clé pour toute équipe technique. Grâce aux bonnes pratiques DevOps et à la puissance des outils comme GitHub Actions, ArgoCD et Helm, il est désormais possible d'automatiser l'intégralité d'un pipeline CI/CD de manière fiable et évolutive. Je vous partage aujourd'hui un excellent guide découvert récemment, autour d'une architecture GitOps appliquée à un projet e-commerce. ## Résumé de l’article L'article '[A comprehensive guide to building a production-ready CI/CD pipeline using GitOps principles with GitHub Actions, ArgoCD, Helm, and Kargo](https://api.daily.dev/r/yPeBxpUJg)' présente une approche complète pour créer un pipeline CI/CD prêt pour la production. Il s'appuie sur le projet Craftista, une application e-commerce basée sur des microservices. Voici les grands axes abordés : - Utilisation d'une architecture polyrepo pour organiser le code - Automatisation complète du cycle Dev -&gt; Préprod -&gt; Prod - Intégration de Helm pour le packaging Kubernetes - Mise en œuvre d'ArgoCD et Kargo pour gérer les déploiements multi-environnements - Application des principes GitOps avec des pull requests comme principal levier de changement - Adoption du versionning sémantique pour structurer les releases ## Pourquoi c’est utile pour les pros tech ### Un pipeline CI/CD robuste dès le départ Trop souvent, les pipelines sont bricolés au fur et à mesure. Ce guide montre comment concevoir une architecture déployable dès le premier jour, avec une logique d’environnement bien pensée. ### GitOps : automatisation et traçabilité Avec GitOps, tout passe par Git : modifications, historiques de déploiements et rollbacks. Cela améliore drastiquement la sécurité et la traçabilité des changements — clé en production. ### Compatible avec Kubernetes natif Grâce à Helm, tout l'écosystème s'intègre naturellement avec Kubernetes. Les déploiements sont reproductibles, versionnés, et surveillables via des outils standards de monitoring. ### Séparation claire des environnements Le tutoriel introduit une stratégie de promotion automatisée, ce qui permet de limiter les erreurs humaines et d’apporter plus de confiance lors du passage en production. ## Mon retour d’expérience En tant que développeur back habitué aux environnements Docker/Kubernetes, j'ai retrouvé dans cette approche GitOps une vraie cohérence. J'ai particulièrement apprécié la clarté des repositories et la rigueur imposée par les conventions de versioning. La courbe d'apprentissage est au rendez-vous, certes, mais les bénéfices long terme sont évidents, notamment en terme de maintenance. Je recommande vivement aux équipes DevOps ou full stack cherchant à consolider leur stratégie de déploiement de suivre cette méthode. GitHub Actions combiné à ArgoCD a changé ma façon d’automatiser mes workflows applicatifs. ## Conclusion Ce guide apporte une réelle valeur pour toute équipe tech voulant structurer ses pipelines CI/CD autour des meilleures pratiques modernes. Si vous cherchez une implémentation GitOps concrète, bien pensée et axée production, c’est une référence à ne pas manquer. [Lien vers l'article](https://api.daily.dev/r/yPeBxpUJg)</p>
]]></content:encoded></item><item><title><![CDATA[ConvertX : La Solution Incontournable pour la Conversion de Formats de Fichiers]]></title><description><![CDATA[Introduction
Plonger dans le monde de la conversion de fichiers avec ConvertX, une application autohébergée qui redéfinit la manipulation de formats avec plus de 1000 options. Construite avec TypeScript et Bun, elle répond aux besoins modernes des pr...]]></description><link>https://blog.brokenbymega.ovh/convertx-la-solution-incontournable-pour-la-conversion-de-formats-de-fichiers</link><guid isPermaLink="true">https://blog.brokenbymega.ovh/convertx-la-solution-incontournable-pour-la-conversion-de-formats-de-fichiers</guid><category><![CDATA[Hashnode]]></category><dc:creator><![CDATA[Arnaud Hatzenbuhler]]></dc:creator><pubDate>Thu, 18 Dec 2025 07:00:03 GMT</pubDate><content:encoded><![CDATA[<h2 id="heading-introduction">Introduction</h2>
<p>Plonger dans le monde de la conversion de fichiers avec ConvertX, une application autohébergée qui redéfinit la manipulation de formats avec plus de 1000 options. Construite avec TypeScript et Bun, elle répond aux besoins modernes des professionnels de la tech.</p>
<h2 id="heading-resume">Résumé</h2>
<p>ConvertX utilise des moteurs puissants comme FFmpeg et ImageMagick pour offrir une multitude d'options de conversion. Que vous ayez des images, vidéos, documents, e-books ou même des actifs 3D et graphiques vectoriels, ConvertX propose une solution exhaustive.</p>
<h2 id="heading-utilite-pros-tech">Utilité pros tech</h2>
<p>Pour les professionnels techniques, ConvertX simplifie les procédures grâce au traitement par lots et à la protection par mot de passe. Le support multi-comptes facilite la collaboration d'équipe tout en assurant la sécurité des données via des variables d'environnement personnalisables.</p>
<h2 id="heading-mon-experience">Mon expérience</h2>
<p>Personnellement, j'ai trouvé le déploiement avec Docker étonnamment simple et efficace, renforçant encore plus l'attrait de cet outil dans mon flux de travail quotidien. Son interface intuitive est un vrai plus!</p>
<h2 id="heading-conclusion">Conclusion</h2>
<p>En conclusion, ConvertX se positionne comme l'outil indispensable pour tout besoin de conversion de format. Sa flexibilité et ses caractéristiques font de lui une ressource de choix pour les professionnels de tous bords.<a target="_blank" href="https://api.daily.dev/r/Odntu67K8">Lire l'article complet</a></p>
]]></content:encoded></item></channel></rss>