(String: <p>WeScale était à Devoxx France, la conférence des développeurs qui se tenait du 21 au 23 avril la semaine dernière. Parmi les grandes tendances que nous en retiendrons :</p>)
WeScale était à Devoxx France, la conférence des développeurs qui se tenait du 21 au 23 avril la semaine dernière. Parmi les grandes tendances que nous en retiendrons :
(String: <h2 id="cloud">Cloud</h2>
<h3 id="les-entreprises-fran-aises-engag-es-dans-la-r-volution-des-conteneurs-">Les entreprises françaises engagées dans la révolution des conteneurs :</h3>
<p>De nouvelles mises en oeuvre concrètes de projets autour des conteneurs au sein d’entreprises françaises sont présentés par le JDN. En effet, <a href="http://www.journaldunet.com/solutions/cloud-computing/1175440-les-premiers-retours-d-experience-francais-de-cloud-2-0/">6 cas sont abordés</a> : on pourra ainsi en savoir plus sur un POC Docker à la Société Générale, ou bien découvrir les initiatives autour de Rocket (CoreOS) chez BlablaCar mais aussi sur la conception d’un framework microservices encapsulés dans des conteneurs Docker sur AWS au sein de Pernod Ricard pour ne citer qu’eux.</p>)
Cloud Les entreprises françaises engagées dans la révolution des conteneurs : De nouvelles mises en oeuvre concrètes de projets autour des conteneurs au sein d’entreprises françaises sont présentés par le JDN. En effet, 6 cas sont abordés : on pourra ainsi en savoir plus sur un POC Docker à la Société Générale, ou bien découvrir les initiatives autour de Rocket (CoreOS) chez BlablaCar mais aussi sur la conception d’un framework microservices encapsulés dans des conteneurs Docker sur AWS au sein de Pernod Ricard pour ne citer qu’eux.
(String: <p>Les scripts shell traînent une réputation peu glorieuse lorsque l’on parle maintenabilité, pérennité et troubleshooting. Pourtant le shell reste l’un des points de greffe les plus pratiques lorsque l’on aborde une nouvelle machine. Dans un environnement inconnu, c’est le shell qui, le premier, nous accueille et nous fournit de quoi avoir prise sur le système. Pour une instance démarrée dans le Cloud, le shell est parmi les premières options offertes pour bootstrapper la machine. Bref, où il y a un système il y a un shell.</p>)
Les scripts shell traînent une réputation peu glorieuse lorsque l’on parle maintenabilité, pérennité et troubleshooting. Pourtant le shell reste l’un des points de greffe les plus pratiques lorsque l’on aborde une nouvelle machine. Dans un environnement inconnu, c’est le shell qui, le premier, nous accueille et nous fournit de quoi avoir prise sur le système. Pour une instance démarrée dans le Cloud, le shell est parmi les premières options offertes pour bootstrapper la machine. Bref, où il y a un système il y a un shell.
(String: <p><a href="http://www.breizhcamp.org">Le BreizhC@mp</a> c’est la conférence tech la plus à l’Ouest (Rennes). Mais c’est surtout un joli plateau de speakers, des sujets extrêmement variés et innovants, une réception quatre étoiles, et un bel esprit déjanté tout en restant pro. C’est dans ce cadre que depuis 2 ans, Michel (aka <a href="https://twitter.com/mimah35">@Mimah35</a>) propose aux participants de résoudre une énigme composée d’arcanes propres aux informaticiens.</p>)
Le BreizhC@mp c’est la conférence tech la plus à l’Ouest (Rennes). Mais c’est surtout un joli plateau de speakers, des sujets extrêmement variés et innovants, une réception quatre étoiles, et un bel esprit déjanté tout en restant pro. C’est dans ce cadre que depuis 2 ans, Michel (aka @Mimah35) propose aux participants de résoudre une énigme composée d’arcanes propres aux informaticiens.
(String: <p>Pour cet atelier, nous allons gérer une infrastructure avec SaltStack. Notre but est de déployer de façon automatisée la stack suivante :</p>)
SaltStack fait partie des nouveaux systèmes de gestion de configuration. Dans cet atelier, nous vous proposons de déployer une plate-forme web complète avec SaltStack. A travers des exercices guidés vous pourrez découvrir les concepts et automatiser puis orchestrer une application web.
Let's Encrypt et DNS challenge pour infrastructure AWS via Route53
(String: <p>Aujourd’hui, il est presque indispensable d’exposer les services de son application à travers le protocole sécurisé HTTPS. Tant pour les communications entre votre application et les utilisateurs que pour des communications entre services. Un exemple récemment rencontré lorsque vous souhaitez exploiter l’API de notification de Google Drive, le “webhook” de votre application doit forcément être <a href="https://developers.google.com/drive/v3/web/push">exposé à travers https</a>. Dans le cas d’un hébergement de son application chez le fournisseur AWS, vous pourrez mettre en place des certificats de manière triviale via <a href="https://blog.wescale.fr/2016/02/10/revue-de-presse-de-fevrier/">Amazon Certificate Manager</a> (ACM). Vous disposerez d’un ou plusieurs certificats via l’utilisation de la console ou de la CLI ainsi qu’une étape de validation humaine d’approbation à travers un workflow par email. Cette dernière phase peut représenter un handicap dans la mise en place d’automatisation. Pour information, vous trouverez <a href="https://github.com/ubergeek42/lambda-letsencrypt/issues/11">d’autres limitations ici</a>. Pour ces quelques raisons, nous allons étudier une alternative intéressante avec l’utilisation de Let’s Encrypt (LE).</p>)
Aujourd’hui, il est presque indispensable d’exposer les services de son application à travers le protocole sécurisé HTTPS. Tant pour les communications entre votre application et les utilisateurs que pour des communications entre services. Un exemple récemment rencontré lorsque vous souhaitez exploiter l’API de notification de Google Drive, le “webhook” de votre application doit forcément être exposé à travers https. Dans le cas d’un hébergement de son application chez le fournisseur AWS, vous pourrez mettre en place des certificats de manière triviale via Amazon Certificate Manager (ACM). Vous disposerez d’un ou plusieurs certificats via l’utilisation de la console ou de la CLI ainsi qu’une étape de validation humaine d’approbation à travers un workflow par email. Cette dernière phase peut représenter un handicap dans la mise en place d’automatisation. Pour information, vous trouverez d’autres limitations ici. Pour ces quelques raisons, nous allons étudier une alternative intéressante avec l’utilisation de Let’s Encrypt (LE).
(String: <h2 id="docker">Docker</h2>
<h3 id="caas-containers-as-a-service">CaaS : Containers as a Service</h3>
<p>Docker a annoncé fin février la disponibilité de <a href="https://www.docker.com/products/docker-datacenter">Docker Datacenter</a>, une solution intégrée pour le déploiement et la gestion d’un Cloud privé permettant d’exécuter des containers dans une logique de “Containers as a Service”.</p>)
Docker CaaS : Containers as a Service Docker a annoncé fin février la disponibilité de Docker Datacenter, une solution intégrée pour le déploiement et la gestion d’un Cloud privé permettant d’exécuter des containers dans une logique de “Containers as a Service”.
(String: <p>SaltStack est un outil d’infrastructure as code de nouvelle génération au même titre qu’Ansible par exemple. Le code Salt est écrit sous forme de fichier YAML décrivant les états désirés d’un système. Je l’utilise au quotidien pour gérer l’installation des machines par rôle d’infrastructure. Chaque rôle comprend une base commune chargée de partitionner les disques, configurer les services de base comme le serveur ssh et la gestion des utilisateurs. La partie spécifique décrit l’installation, la configuration et l’exécution du service associé à un rôle. <br><br>Il y a par exemple des rôles pour Graphite, Elasticsearch, RabbitMQ, Redis, Nginx et bien d’autres. La base de code Salt contient plus de 200 fichiers sls. Afin d’éviter les régressions et de faciliter le développement de nouveaux rôles, nous avons besoin d’une solution qui nous permette de facilement tester notre code et de vérifier qu’il rend bien le service attendu. Je me suis naturellement tourné vers Docker pour industrialiser une solution d’intégration continue de notre code SaltStack. Les buts sont de limiter les coûts d’instances Amazon EC2 et d’éviter les quelques minutes de démarrage imposé par AWS. Dans cet article, je vous propose de découvrir notre socle d’intégration continue pour le développement SaltStack.</p>)
SaltStack est un outil d’infrastructure as code de nouvelle génération au même titre qu’Ansible par exemple. Le code Salt est écrit sous forme de fichier YAML décrivant les états désirés d’un système. Je l’utilise au quotidien pour gérer l’installation des machines par rôle d’infrastructure. Chaque rôle comprend une base commune chargée de partitionner les disques, configurer les services de base comme le serveur ssh et la gestion des utilisateurs. La partie spécifique décrit l’installation, la configuration et l’exécution du service associé à un rôle. Il y a par exemple des rôles pour Graphite, Elasticsearch, RabbitMQ, Redis, Nginx et bien d’autres. La base de code Salt contient plus de 200 fichiers sls. Afin d’éviter les régressions et de faciliter le développement de nouveaux rôles, nous avons besoin d’une solution qui nous permette de facilement tester notre code et de vérifier qu’il rend bien le service attendu. Je me suis naturellement tourné vers Docker pour industrialiser une solution d’intégration continue de notre code SaltStack. Les buts sont de limiter les coûts d’instances Amazon EC2 et d’éviter les quelques minutes de démarrage imposé par AWS. Dans cet article, je vous propose de découvrir notre socle d’intégration continue pour le développement SaltStack.
(String: <h2 id="du-nouveau-chez-amazon-web-services">Du nouveau chez Amazon Web Services</h2>
<h3 id="scheduled-reserved-instances">Scheduled Reserved Instances</h3>
<p>Amazon a officiellement lancé une nouvelle offre d’instances réservées venant enrichir l’existant. Pour rappel, les instances réservées permettent d’obtenir une baisse de tarif horaire des instances (jusqu’à 75% ) en contrepartie d’un engagement à long terme entre 1 et 3 ans sur l’utilisation de ces ressources. Avec cette solution, l’hébergeur propose de sortir du modèle de tarification On-Demand et donc de payer à prix fixe les instances réservées. Outre la baisse de coût en comparaison de la tarification par défaut, Amazon garantit aussi la disponibilité des instances réservées là où, en fonctionnement On-Demand, l’utilisateur peut se voir refuser l’allocation de ressources pour cause de limite de capacité notamment.</p>)
Du nouveau chez Amazon Web Services Scheduled Reserved Instances Amazon a officiellement lancé une nouvelle offre d’instances réservées venant enrichir l’existant. Pour rappel, les instances réservées permettent d’obtenir une baisse de tarif horaire des instances (jusqu’à 75% ) en contrepartie d’un engagement à long terme entre 1 et 3 ans sur l’utilisation de ces ressources. Avec cette solution, l’hébergeur propose de sortir du modèle de tarification On-Demand et donc de payer à prix fixe les instances réservées. Outre la baisse de coût en comparaison de la tarification par défaut, Amazon garantit aussi la disponibilité des instances réservées là où, en fonctionnement On-Demand, l’utilisateur peut se voir refuser l’allocation de ressources pour cause de limite de capacité notamment.