Docker a annoncé fin février la disponibilité de Docker Datacenter, une solution intégrée pour le déploiement et la gestion d’un Cloud privé permettant d’exécuter des containers dans une logique de “Containers as a Service”.
L’entreprise propose ainsi de déployer une application dans des conditions identiques, du poste de développement à la production. L’objectif annoncé est d’apporter une valeur ajoutée réelle tant aux équipes de développement qu’aux équipes d’opérations, grâce à la maîtrise de la totalité du cycle de vie d’une application basée sur l’utilisation des containers.
Il faut toutefois noter que toutes les briques de la solution ne sont pas open source : Docker Datacenter regroupe en effet les composants payants Docker Trusted Registry et Docker Universal Control Plane avec les composants open source traditionnels (Docker Engine, Docker Swarm, Docker Networking…).
Cette offre devrait en tout cas susciter un intérêt réel auprès des entreprises souhaitant développer une stratégie axée sur l’écosystème Docker, en leur permettant de mettre en œuvre et de gérer des architectures d’envergure dans leurs propres centres de données.
Dans un billet du 1er mars, Docker annonce le lancement de Docker Cloud. Ce service étend les fonctionnalités anciennement offertes par Tutum (société acquise par Docker fin 2015) et propose de la même manière une plate-forme centrée sur l’application, avec une abstraction complète de l’infrastructure.
Au rang des nouveautés, citons l’intégration de Docker Hub – qui permet notamment d’accéder nativement aux dépôts officiels (images de systèmes d’exploitation et de stack applicatives certifiées), ainsi que celle de Docker ID, qui autorise la gestion des différents services Docker à l’aide d’un identifiant unique. Docker propose également une offre commerciale de Docker Engine (CS Engine) et annonce le lancement d’un forum d’assistance dédié à la plate-forme.
Comme pour l’ensemble des fournisseurs de services cloud, une interface web permet de piloter l’infrastructure mais aussi d’obtenir une vision synthétique de son fonctionnement. La gestion des ressources peut également s’effectuer par le biais d’un client CLI, voire via l’utilisation directe de l’API RESTful du service.
Après le lancement de Docker Datacenter, l’entreprise étend donc son offre de solutions intégrées et confirme son positionnement sur le marché de la gestion des Clouds publics et privés.
Sur le créneau des architectures Serverless, le mois dernier a connu une nouvelle qui laissait AWS seul en tête avec son offre Lambda. Google et IBM ne se sont pas fait attendre pour proposer une alternative. Google Functions et IBM OpenWhisk arrivent donc. Ces offres sont certes un peu jeunes mais semblent promises à un bel avenir. On retiendra pour le premier qu’il s’agit d’un environnement d’exécution basé sur NodeJS et qui, à la manière d’AWS Lambda, se déclenche suivant des événements tels que des requêtes HTTP ou des messages Pub/Sub. La solution d’IBM semble quant à elle déjà plus évoluée puisque plusieurs langages sont déjà supportés (NodeJS et Swift). Une des caractéristiques de l’offre IBM est la possibilité d’exécuter un conteneur Docker (ce qui n’est pas le cas chez les deux autres concurrents AWS et Google). À valider à travers un POC mais cette solution orientée micro container laisse présager de belles architectures scalables.
Plus qu’un effet de mode, les technologies du Cloud poursuivent leur croissance : aux Etats-Unis notamment comme l’illustre Silicon.fr où, d’après une étude menée par le cabinet Clutch, 63% des organisations vont augmenter leurs dépenses dans le Cloud cette année. Mais aussi en France, illustré cette fois dans un article parut dans L’Usine Digitale reprenant une enquête de Markess International qui expose que là où aujourd’hui une entreprise sur deux utilise des services Cloud, le ratio devrait passer à deux sur trois d’ici fin 2018.
Et parmi les fournisseurs qui profitent de ce marché florissant, sur le dernier trimestre 2015 c’est Microsoft qui affiche la plus belle progression de son offre Cloud (avec 124% de croissance) même si AWS reste encore largement en tête avec 31% de parts de marché.
La célébre phrase “Friends don’t let friends build data centers anymore” de Charles Phillips CEO du New York Times a trouvé écho chez Spotify. Dans un communiqué du 23 février dernier, le célèbre service de distribution de musique en ligne annonçait la migration de son infrastructure vers le Cloud de Google. Pour les ingénieurs de Spotify, l’infrastructure Cloud égale les infrastructures traditionnelles en terme de qualité, de puissance et de coût. La décision de se tourner vers Google plutôt qu’un autre acteur est principalement justifiée par l’offre big data du géant américain. Google est le leader du marché, à l’origine rappelons le, du célèbre Hadoop (développé à partir d’un livre blanc publié par Google). Son offre permet de bénéficier de solutions éprouvées et puissantes pour le traitement d’évènements avec Pub/Sub. La cerise sur le gâteau étant BigQuery, que Spotify qualifie de presque magique. Spotify devient donc une référence importante pour la plate-forme Google et suit la logique initiée par Netflix dans sa migration sur AWS de migrer l’ensemble de son infrastructure vers le Cloud.
Google Compute Engine permet maintenant de définir ses propres types de machines en définissant le nombre de vCPU et la quantité de mémoire vive souhaitée.
Vous pouvez donc choisir entre 1 et 32 vCPU selon les besoins en calcul de vos applications. Côté mémoire, vous pourrez obtenir jusqu’à 6.5 GB par vCPU. Cette fonctionnalité, en Beta depuis novembre, permet d’affiner le dimensionnement des machines pour mieux correspondre à des besoins spécifiques. Au delà de cette liberté attrayante, l’avantage clair est de réduire les coûts en évitant les effets paliers des types d’instances prédéfinis.
Le prix de base est de 0.03492$ /h/vCPU et 0.00468$ /GB, les tarifs augmentent ensuite de façon linéaire en lien avec les dimensions de la configuration.
Le rapprochement de Google et RedHat dont nous avions parlé pour OpenShift dans la précédente revue de presse s’accélère avec le support de RedHat Gluster dans l’offre de service Google Cloud. La marque au chapeau rouge offre maintenant le support commercial de GlusterFS déjà supporté sur AWS et sur Google Cloud. GlusterFS est un système de fichiers distribué qui permet de partager des fichiers sur un ensemble de machines. Il gère la réplication et rend possible l’écriture concurrente depuis plusieurs hôtes connectés. Le système de fichiers peut être monté en NFS, SMB et Gluster natif. Bien qu’avec cette nouvelle annonce, Google fournit une première réponse au service Elastic File d’AWS, nous restons sur notre faim. Il n’existe pas d’intégration dans la console ou par API pour créer son système de fichiers distribués.
Vous avez sûrement déjà entendu parler d’Ansible, cet outil d’automatisation qui fait la course en tête avec SaltStack et autres Puppet. La société qui soutient le développement du projet a été rachetée en octobre dernier par RedHat. Depuis lors, les annonces officielles voulaient surtout rassurer la communauté sur ce qui n’allait pas changé avec le rachat. Voici maintenant que RedHat dévoile un bel axe d’amélioration : Ansible va gérer la partie réseau.
Le but affiché est d’intégrer les équipes réseaux dans la dynamique DevOps en ayant un outil commun, capable de gérer le réseau aussi bien que le provisionning applicatif. Parmi les partenaires de cette initiative, on compte tout de même Cisco, Juniper et HP. Cela augure de bonnes fonctionnalités pour le futur proche d’Ansible.