Revue de Presse de Février 2018

Demystifying container runtimes

Les conteneurs sont devenus les incontournables de ces dernières années pour le déploiement d’applications. Cependant, toute la complexité et les abstractions utilisées pour le fonctionnement des conteneurs restent un sujet souvent méconnu et “magique” pour la plupart des utilisateurs. Pour ceux qui sont intéressés pour ouvrir le capot, et comprendre plus en détail la magie, cet article fournira un point d’entrée sur le fonctionnement du layering d’images.

Red Hat rachète CoreOS

Red Hat s’offre CoreOS, le fournisseur de Container Linux, Tectonic, Quay, Rkt, etcd, Flannel, Clair… Un bon coup de la part de RH qui selon lui étend son leadership sur Kubernetes et le monde des conteneurs. Sur le blog de CoreOS on parle d’étendre plus encore l’utilisation d’infrastructures conteneurisées dans un discours plus orienté CNCF et OCI. Quid des projets concurrents ? RH prévoit de faire étudier par une équipe d’intégration commune les mécanismes de déploiement de Container Linux pour les intégrer dans Atomic. Tectonic devrait également servir à améliorer la gestion et l’automatisation de la plateforme OpenShift.

Rook-CNCF-1

CNCF to Host the Rook Project

Le projet Rook, permettant le provisioning de stockage (multi backend) pour les clusters Kubernetes, vient d'être intégré à la Cloud Native Computing Foundation. Il rejoint ainsi les projets Prometheus, Kubernetes, Envoy, OpenTracing, etc. Pour rappel, Rook promet de fournir le provisionning d’un stockage par blocs, fichiers ou objets. Rook s'intègre de manière intuitive à Kubernetes via le nouveau standard CSI (Container Storage Interface). L'appartenance à la CNCF garantit une pérennisation du projet pour l’avenir et de fournir une solution robuste basée sur Ceph pour les besoins d’applications stateful Kubernetes.

STORK: Storage Orchestration Runtime for Kubernetes

Stork est un nouveau projet opensource de la société Portworx, spécialisée dans le stockage. Là où des solutions comme Rook se concentrent sur le provisionning du stockage, Stork se positionne comme un orchestrateur en définissant un point d'extension au niveau du scheduler par défaut de Kubernetes (scheduler extender). En effet, jusqu’à présent il était nécessaire de définir ou d’annoter ces applications avec des “labels” ou “constraints”, mais cela devient vite complexe à plus grande échelle pour les équipes DevOps.
Le “scheduler extender” de Stork permet de mieux gérer le choix de placement des applications dans un cluster Kubernetes, en fonction du serveur sur lequel se trouve la donnée, la stratégie par défaut étant la strategie de données locales (data local). Interview de Goutham “Gou” Rao, co-fondateur de Portworx.

aws-lambda-go

Exemple d’application serverless avec Go

Dans le nouveau monde du FaaS (Function as a Service), les annonces se succèdent régulièrement. L’annonce du support de Go (golang) ajoute la possibilité d’utiliser un langage compilé pour ses micro-services. Cet article décrit la création d’un hello world ainsi que la mise en place d’un pipeline AWS Codepipeline pour automatiser la compilation du binaire Go et de son déploiement sur Lambda, avec la mise à jour du code dans S3. À lire pour les fans du Go et des pipelines CI/CD.

Expanding our global infrastructure with new regions and subsea cables

Google étend son infrastructure réseau en déployant de nouvelles régions et de nouveaux câbles sous-marins. Sur le premier trimestre de 2018, les Pays-Bas et Montréal devraient être couverts et Google devraient ensuite couvrir Los Angeles, la Finlande et Hong-Kong. En 2019, 3 nouveaux câbles sous-marins devraient connecter le Chili et Los Angeles, les Etats-Unis au Danemark et à l’Irlande ainsi que relier Hong-Kong au hubs majeurs qui interconnectent le reste de l’asie. Si l’étendu du réseau Google notamment via ses investissements dans le consortium Curie vous intéresse, allez consulter la page Google Edge Network

Functions as a Service with Nomad and OpenFaaS

Nic Jackson, sur le blog d’Hashicorp, nous explique comment déployer le projet OpenFaas sur un socle Nomad. La partie monitoring est assurée par Statsd et Prometheus. Au-delà d’une simple explication en mode schématique, c’est un mini tutoriel à dérouler qu’il nous livre. À vos claviers.

Certified Kubernetes Administrator (CKA)

Certified Kubernetes Administrator Exam on Kubernetes 1.9.1

La Cloud Native Computing Foundation a mis à jour son examen de certification d’administrateur Kubernetes. L’examen de 3 heures consiste en la résolution de divers problèmes allant des concepts de base de la gestion du cluster à la gestion de la sécurité, du monitoring, debug, installation ou encore du stockage… et le tout en lignes de commande en face d’une instance live de Kubernetes.

Application Delivery with HashiCorp

Hashicorp nous gratifie d’un whitepaper décrivant leur vision idéale du cycle de livraison d’une application. Ce document apporte une nouvelle idée de leur fameux Tao en comparant approche waterfall et DevOps et en rappelant où chacun de leurs outils trouve place dans ce cadre. C’est rapide à lire et très bien écrit, on vous le conseille.

CNCF Serverless Whitepaper v1.0

Des auteurs de tous horizons, membres de la CNCF, ont permis la publication en v1.0 d’un whitepaper sur Serverless. Dans ce document vous retrouverez une présentation détaillée du fonctionnement d’une plateforme Serverless sans avoir la prétention de vouloir pousser un standard. Les différentes plateformes existantes y sont présentées de manière objective et quelques outils pour l’adoption du serverless sont donnés en fin d’article. Par addition au tableau Cloud Native Landscape existant, un tableau Serverless Cloud Native Landscape a été publié :
Serverless Cloud Native Landscape

Pivotal Container Service (PKS) en General Availability

La solution de Pivotal de déploiement Kubernetes, intégrée à Cloud Foundry mais aussi utilisable en standalone, est livrée en version stable. Elle vient avec un registry de conteneurs (VMWare Harbor) et une compatibilité intégrale avec la version 1.9.2 de Kubernetes tout en prévoyant d’être très rapidement compatible avec la 1.10 quand elle sortira au mois de mars. On y retrouve également une couche réseau sécurisée venant de VMWare (NTS-X).

Quoi de neuf sur le blog ?

En follow-up de ses articles sur OpenShift, Akram nous démontre comment simuler l'installation d'un cluster en 30 minutes tout en conservant une architecture de production.

Sébastien a fourni un tutoriel très instructif et détaillé de toutes les étapes de la construction d'une architecture serverless avec AWS Lambda et Terraform.

Si vous utilisez une authentification à double facteur, Nicolas s'est penché sur l'automatisation de l'installation et de l'utitisation d'OATH Toolkit

Enfin, Benoit a rédigé un excellent article, très pédagogue, sur le fonctionnement des réseaux d'overlay. Vous y retrouverez des explications sur les types de réseaux dans les infrastructures cloud et VXLAN. On a hâte de lire son prochaine article sur Flannel.