Let's Encrypt et DNS challenge pour infrastructure AWS via Route53
(String: <p>Aujourd’hui, il est presque indispensable d’exposer les services de son application à travers le protocole sécurisé HTTPS. Tant pour les communications entre votre application et les utilisateurs que pour des communications entre services. Un exemple récemment rencontré lorsque vous souhaitez exploiter l’API de notification de Google Drive, le “webhook” de votre application doit forcément être <a href="https://developers.google.com/drive/v3/web/push">exposé à travers https</a>. Dans le cas d’un hébergement de son application chez le fournisseur AWS, vous pourrez mettre en place des certificats de manière triviale via <a href="https://blog.wescale.fr/2016/02/10/revue-de-presse-de-fevrier/">Amazon Certificate Manager</a> (ACM). Vous disposerez d’un ou plusieurs certificats via l’utilisation de la console ou de la CLI ainsi qu’une étape de validation humaine d’approbation à travers un workflow par email. Cette dernière phase peut représenter un handicap dans la mise en place d’automatisation. Pour information, vous trouverez <a href="https://github.com/ubergeek42/lambda-letsencrypt/issues/11">d’autres limitations ici</a>. Pour ces quelques raisons, nous allons étudier une alternative intéressante avec l’utilisation de Let’s Encrypt (LE).</p>)
Aujourd’hui, il est presque indispensable d’exposer les services de son application à travers le protocole sécurisé HTTPS. Tant pour les communications entre votre application et les utilisateurs que pour des communications entre services. Un exemple récemment rencontré lorsque vous souhaitez exploiter l’API de notification de Google Drive, le “webhook” de votre application doit forcément être exposé à travers https. Dans le cas d’un hébergement de son application chez le fournisseur AWS, vous pourrez mettre en place des certificats de manière triviale via Amazon Certificate Manager (ACM). Vous disposerez d’un ou plusieurs certificats via l’utilisation de la console ou de la CLI ainsi qu’une étape de validation humaine d’approbation à travers un workflow par email. Cette dernière phase peut représenter un handicap dans la mise en place d’automatisation. Pour information, vous trouverez d’autres limitations ici. Pour ces quelques raisons, nous allons étudier une alternative intéressante avec l’utilisation de Let’s Encrypt (LE).
(String: <h2 id="docker">Docker</h2>
<h3 id="caas-containers-as-a-service">CaaS : Containers as a Service</h3>
<p>Docker a annoncé fin février la disponibilité de <a href="https://www.docker.com/products/docker-datacenter">Docker Datacenter</a>, une solution intégrée pour le déploiement et la gestion d’un Cloud privé permettant d’exécuter des containers dans une logique de “Containers as a Service”.</p>)
Docker CaaS : Containers as a Service Docker a annoncé fin février la disponibilité de Docker Datacenter, une solution intégrée pour le déploiement et la gestion d’un Cloud privé permettant d’exécuter des containers dans une logique de “Containers as a Service”.
(String: <p>SaltStack est un outil d’infrastructure as code de nouvelle génération au même titre qu’Ansible par exemple. Le code Salt est écrit sous forme de fichier YAML décrivant les états désirés d’un système. Je l’utilise au quotidien pour gérer l’installation des machines par rôle d’infrastructure. Chaque rôle comprend une base commune chargée de partitionner les disques, configurer les services de base comme le serveur ssh et la gestion des utilisateurs. La partie spécifique décrit l’installation, la configuration et l’exécution du service associé à un rôle. <br><br>Il y a par exemple des rôles pour Graphite, Elasticsearch, RabbitMQ, Redis, Nginx et bien d’autres. La base de code Salt contient plus de 200 fichiers sls. Afin d’éviter les régressions et de faciliter le développement de nouveaux rôles, nous avons besoin d’une solution qui nous permette de facilement tester notre code et de vérifier qu’il rend bien le service attendu. Je me suis naturellement tourné vers Docker pour industrialiser une solution d’intégration continue de notre code SaltStack. Les buts sont de limiter les coûts d’instances Amazon EC2 et d’éviter les quelques minutes de démarrage imposé par AWS. Dans cet article, je vous propose de découvrir notre socle d’intégration continue pour le développement SaltStack.</p>)
SaltStack est un outil d’infrastructure as code de nouvelle génération au même titre qu’Ansible par exemple. Le code Salt est écrit sous forme de fichier YAML décrivant les états désirés d’un système. Je l’utilise au quotidien pour gérer l’installation des machines par rôle d’infrastructure. Chaque rôle comprend une base commune chargée de partitionner les disques, configurer les services de base comme le serveur ssh et la gestion des utilisateurs. La partie spécifique décrit l’installation, la configuration et l’exécution du service associé à un rôle. Il y a par exemple des rôles pour Graphite, Elasticsearch, RabbitMQ, Redis, Nginx et bien d’autres. La base de code Salt contient plus de 200 fichiers sls. Afin d’éviter les régressions et de faciliter le développement de nouveaux rôles, nous avons besoin d’une solution qui nous permette de facilement tester notre code et de vérifier qu’il rend bien le service attendu. Je me suis naturellement tourné vers Docker pour industrialiser une solution d’intégration continue de notre code SaltStack. Les buts sont de limiter les coûts d’instances Amazon EC2 et d’éviter les quelques minutes de démarrage imposé par AWS. Dans cet article, je vous propose de découvrir notre socle d’intégration continue pour le développement SaltStack.
(String: <h2 id="du-nouveau-chez-amazon-web-services">Du nouveau chez Amazon Web Services</h2>
<h3 id="scheduled-reserved-instances">Scheduled Reserved Instances</h3>
<p>Amazon a officiellement lancé une nouvelle offre d’instances réservées venant enrichir l’existant. Pour rappel, les instances réservées permettent d’obtenir une baisse de tarif horaire des instances (jusqu’à 75% ) en contrepartie d’un engagement à long terme entre 1 et 3 ans sur l’utilisation de ces ressources. Avec cette solution, l’hébergeur propose de sortir du modèle de tarification On-Demand et donc de payer à prix fixe les instances réservées. Outre la baisse de coût en comparaison de la tarification par défaut, Amazon garantit aussi la disponibilité des instances réservées là où, en fonctionnement On-Demand, l’utilisateur peut se voir refuser l’allocation de ressources pour cause de limite de capacité notamment.</p>)
Du nouveau chez Amazon Web Services Scheduled Reserved Instances Amazon a officiellement lancé une nouvelle offre d’instances réservées venant enrichir l’existant. Pour rappel, les instances réservées permettent d’obtenir une baisse de tarif horaire des instances (jusqu’à 75% ) en contrepartie d’un engagement à long terme entre 1 et 3 ans sur l’utilisation de ces ressources. Avec cette solution, l’hébergeur propose de sortir du modèle de tarification On-Demand et donc de payer à prix fixe les instances réservées. Outre la baisse de coût en comparaison de la tarification par défaut, Amazon garantit aussi la disponibilité des instances réservées là où, en fonctionnement On-Demand, l’utilisateur peut se voir refuser l’allocation de ressources pour cause de limite de capacité notamment.
(String: <h2 id="du-mouvement-chez-amazon">Du mouvement chez Amazon</h2>
<p>Après une année record en 2015 (son action a <a href="https://www.google.com/finance?chdnp=1&chdd=1&chds=1&chdv=1&chvs=maximized&chdeh=0&chfdeh=0&chdet=1452447066644&chddm=97750&chls=IntervalBasedLine&q=NASDAQ:AMZN&ntsp=0&ei=IpWSVonZGZGKUrb9iLAD">doublé</a>), Amazon Web Services démarre 2016 en <a href="https://aws.amazon.com/fr/blogs/aws/happy-new-year-ec2-price-reduction-c4-m4-and-r3-instances/">baissant ses tarifs de 5% </a>sur les instances de type C4, M4 et R3. Parallèlement, la présence d’Amazon s’étend à l’est avec l’ouverture d’une nouvelle région en <a href="http://finance.yahoo.com/news/amazon-services-launches-korean-datacenters-023500145.html">Corée du Sud</a>.</p>)
Du mouvement chez Amazon Après une année record en 2015 (son action a doublé), Amazon Web Services démarre 2016 en baissant ses tarifs de 5% sur les instances de type C4, M4 et R3. Parallèlement, la présence d’Amazon s’étend à l’est avec l’ouverture d’une nouvelle région en Corée du Sud.
(String: <figure class="kg-card kg-image-card"></figure>
<p>Il arrive souvent que les machines de votre parc ne soient pas toutes accessibles directement via SSH depuis votre poste de travail. Dans ce genre de cas, il existe souvent une machine bastion, qui est l’unique point d’entrée vers cette zone réseau. Voici une astuce bien pratique pour atteindre vos machines non-exposées en passant au travers d’un bastion de façon transparente.</p>)
Il arrive souvent que les machines de votre parc ne soient pas toutes accessibles directement via SSH depuis votre poste de travail. Dans ce genre de cas, il existe souvent une machine bastion, qui est l’unique point d’entrée vers cette zone réseau. Voici une astuce bien pratique pour atteindre vos machines non-exposées en passant au travers d’un bastion de façon transparente.
(String: <p>Docker Machine est un outil de la famille Docker qui se charge de créer et configurer des machines pour exécuter le daemon Docker. Avec Kitematic, l’interface graphique construite pour OS X et Windows, Docker Machine prend la suite de Boot2Docker qui permettait aux utilisateurs de ces deux OS de facilement créer leurs conteneurs. Les machines sont créées avec une distribution linux boot2docker ou Ubuntu, ce qui peut convenir à la plupart des utilisateurs. Dans mon cas, j’avais besoin d’utiliser une distribution CentOS 7 pour faire tourner mon daemon Docker. Je vous propose donc dans cet article de découvrir comment utiliser Vagrant pour instancier les machines et Docker Machine pour les configurer</p>)
Docker Machine est un outil de la famille Docker qui se charge de créer et configurer des machines pour exécuter le daemon Docker. Avec Kitematic, l’interface graphique construite pour OS X et Windows, Docker Machine prend la suite de Boot2Docker qui permettait aux utilisateurs de ces deux OS de facilement créer leurs conteneurs. Les machines sont créées avec une distribution linux boot2docker ou Ubuntu, ce qui peut convenir à la plupart des utilisateurs. Dans mon cas, j’avais besoin d’utiliser une distribution CentOS 7 pour faire tourner mon daemon Docker. Je vous propose donc dans cet article de découvrir comment utiliser Vagrant pour instancier les machines et Docker Machine pour les configurer
(String: <p>En tant que fournisseur de solutions SaaS, certaines questions techniques ont un impact stratégique important sur votre métier. Celle de l’architecture multi-tenant ou single-tenant fait clairement partie de cette problématique. Le sujet est notamment de plus en plus d’actualité en raison de la popularité des infrastructures et autres plateformes à la demande disponibles chez les fournisseurs Cloud.</p>)
En tant que fournisseur de solutions SaaS, certaines questions techniques ont un impact stratégique important sur votre métier. Celle de l’architecture multi-tenant ou single-tenant fait clairement partie de cette problématique. Le sujet est notamment de plus en plus d’actualité en raison de la popularité des infrastructures et autres plateformes à la demande disponibles chez les fournisseurs Cloud.
(String: <h2 id="platform-as-a-service">Platform as a Service</h2>
<p>L’offre Platform as a service de Google s’appelle App Engine. Elle fournit une solution complète permettant d’héberger des applications Java, Python, et maintenant PHP et Go en bêta. Avec AppEngine, Google gère pour vous la scalabilité de l’application et vous bénéficiez de différents services au catalogue, parmi lesquels nous citerons:</p>)
L’offre de cloud public est en pleine ébullition, de nouveaux acteurs apparaissent régulièrement et il devient difficile de faire son choix parmi les hébergeurs du marché. Google a construit son offre brique après brique à partir de 2008 en lançant son offre PaaS AppEngine. Dans cet article, je vous propose de découvrir Google Cloud Platform avec ses avantages et ses inconvénients.