Blog | WeScale

De retour de la Google Cloud Next ‘18

Rédigé par Alexis Morelle | 02/08/2018

La conférence se déroulait sur 3 jours pour les badges normaux (attendee) et sur 4 jours pour les Partners, Sponsors et Googlers.

Les annonces

Nous allons rester subjectif et ne parler que des annonces qui nous semblent les plus pertinentes et concernent le Cloud et WeScale. Une liste assez exhaustive des annonces est disponible sur le blog de Google.

Malgré le scope assez large de la conférence, Cloud Platform, Machine Learning, Intelligence Artificielle, Big Data, IoT, G Suite et autres, Google attaque tout de même sa keynote de la première journée sur des sujets très orientés infrastructure cloud. En partant d’un constat qui montre une constante diminution du coût des serveurs et une nette augmentation des coûts liés à leur administration, les entreprises choisissent de se reposer, pour 80% d’entre elles, sur des infrastructures hybrides. Cela confirme ce que nous pouvons voir dans nos différentes missions. Google se sert de ce constat pour parler de son investissement sur Kubernetes, de son écosystème et bien entendu de leur plateforme GKE. Sur scène on nous parle donc de la version 1.0 d’Istio, de Cloud Services Platform, une version managée de K8S et d’Istio complètement compatible avec la version open source, de graphs topologiques et de monitoring directement dans Stackdriver… preuve que Google veut pousser son poussin Kubernetes vers l’avant et cela nous ravit !

La grosse annonce qui ne vous aura surement pas échappé est GKE On-Prem. Cela vous permet d’installer une version de Kubernetes packagée par Google chez vous ou sur un autre cloud provider et de l’attacher et le gérer directement dans la console de GKE. Cela libérera surement certaines entreprises assez frileuses de faire le pas et surtout met vraiment l’accent sur les déploiements hybrides ou multi-cloud. À noter que GKE On-Prem est pour l’instant en early access, sera disponible en version alpha à l’automne et n’est fonctionnel que sur du VMware VSphere. Dans une démo, une armoire de salle machine physiquement présente sur scène était d’ailleurs visible dans GKE comme si c’était une nouvelle région de disponibilité. Il nous tarde de pouvoir faire de même !

On a aussi pu noter d’autres points techniques importants :

des dashboards de SLOs dans Stackdriver qui permettent de définir des Service Level Objectives, bien mis en avant par l’univers SRE de Google, et des alertes quand ceux-ci ne sont pas respectés. N’oubliez pas de lire le nouveau Site Reliability Workbook

Knative qui vous permet de mettre en place au-dessus de Kubernetes, un service de build et de déploiement d’applications stateless. L’idée est de packager dans KNative toutes les bonnes pratiques d’un cluster Kubernetes et de fournir une intelligence qui conteneurise votre appli, la déploie, gère son trafic, la charge, les performances etc. Si vous installez Knative sur GKE, vous pouvez utiliser un add-on Serverless pour également faire du Functions as a Service.

les Network Endpoint Groups dont les speakers nous ont dit que nous étions les premiers à en entendre parler. C’est une feature des Load Balancers de Google Cloud permettant de cibler les conteneurs directement pour faire du load balancing par conteneur plutôt que par noeud ou généralement un proxy fait un load balancing interne. Avec cette visibilité sur les pods (on reste dans un environnement Kubernetes), on aura alors de meilleures performances réseaux (moins de routage), on peut faire de la régulation de flux et avoir des healthchecks plus précis.

le resource-based pricing, qui concrètement vous fait faire des économies. À partir de cet automne les réductions en fonction du volume d’utilisation, calculées jusqu’à présent par type d’instances seront calculées par nombre de vCPUs total et quantité de mémoire. Un vrai coup de marteau pour la concurrence sur le sujet des coûts, très à la mode aujourd’hui.

l’arrivée de Cloud functions en General Availability (enfin), d’un SLA sur le service et du support de Python 3.7, nous montrant un peu plus d’implication de Google pour rattraper d’autres offres FaaS qui supportent plus de langages par exemple. Il aussi possible d’y faire tourner des conteneurs que vous aurez buildés plutôt que du code avec Serverless Containers. C’est une feature encore en preview et nous avons peu d’information mais c’est intéressant à suivre.

les Shielded VMs qui sont des VMs protégées contre certains patterns d’attaque. Ce n’est pas accessible pour tout le monde et encore en beta mais la bonne nouvelle c’est qu’il n’y a pour l’instant pas de surcoût à utiliser des VMs protégées.

Cloud HSM pour la gestion des clefs de chiffrement. Disponible en alpha, c’est quelque chose qui manquait à GCP vis à vis de ses concurrents.

On a aussi été impressionnés par les versions beta des produits Auto ML (Vision, Natural Language et Translation), très accessibles, puissants et facilement consommables pour les novices en Machine Learning. Google nous rappelle d’ailleurs que vos données et modèles entraînés sont privés et ne sont pas partagés. BigQuery ML pour monter et entraîner des modèles directement en SQL, le Edge TPU qui est un chipset IoT optimisé pour TensorFlow faisaient également partie des annonces. Difficile de faire le tri dans tout ça et surtout de ne pas laisser notre curiosité nous disperser. Une chose est certaine c’est que nous sommes bien rassasiés.

Our best picks

Les vidéos de la conférence étaient très rapidement disponibles sur YouTube mais voici une courte sélection de quelques conférences que nous sommes allés voir et qui nous ont plu.

Container Native Load Balancing on GKE

Cloud Load Balancing Deep Dive and Best Practices

Solving Reliability Fears with Site Reliability Engineering

Using HashiCorp Vault with Kubernetes

Sandboxing your containers with gVisor

La conférence

En somme, cette conférence était un excellent mélange entre l’effervescence de la tech de San Francisco et le spectaculaire de Google. Pour vous donner un ordre d’idée, il y avait environ 23000 participants, les conférences étaient réparties sur 4 bâtiments différents de plusieurs étages et c’est sans compter les autres lounges, spots et soirées organisés autour de la conférence. Tout San Francisco était au courant, il y a des publicités pour la conférence absolument partout. À vrai dire, on se demande si l’intégralité des panneaux publicitaires de la ville n’y étaient pas dédiés, il y avait d’ailleurs une armée de gens au service de la conf, postés à tous les carrefours avec des maps en 3D du quartier pour nous orienter.

Du côté du format, les classiques grosses keynotes, d’ouverture avec les annonces fortes mais nous avons aussi été étonné de découvrir plusieurs annonces et autres premières communications disséminées dans les conférences faites par les Googlers. Il fallait bien choisir son agenda. Les breakouts sessions étaient très intéressantes et d’un bon niveau technique. Nous n’avons compris ça que pendant la première journée mais il vaut mieux viser les conférences tenues par des Googlers car celles faites par des partenaires étaient souvent un peu longues à rentrer dans le sujet. À noter que pour les keynotes, si vous n’arrivez pas assez tôt pour avoir une place, il y a bien souvent des salles d’overflow avec retransmission mais si la keynote déborde, le flux est coupé pour laisser la place aux conférences afin de respecter l’agenda.

Pour le rythme, nous avons beaucoup apprécié le 9h-17h30, les sessions de 50 minutes entrecoupées de pauses de 30 minutes. Cela laisse bien le temps de digérer, de discuter, d’aller voir les plateaux sponsor ou même de changer de bâtiment tout simplement. Le pendant de cela est qu’il y avait une infinité de choix de conférences en parallèle et que la sélection est compliquée, surtout si vous vous intéressez à plusieurs sujets. Les thèmes étaient Application Development, Collaboration & Productivity, Data Analytics, IoT, Infrastructure & Operations, Machine Learning & AI, Mobility & Devices et Security.

L’application mobile de la conf était plutôt bien et ironiquement plus stable sur iOS que sur Android. Elle vous permettait de faire votre agenda mais surtout de réserver vos places dans les différentes conférences. Nous avions fait l’erreur de nous inscrire avec un email différent de celui du compte Google utilisé pour nous authentifier dans l’appli. Nous ne nous sommes donc rendu compte que sur place qu’il fallait réserver nos places car l’option n’était pas visible et beaucoup des conférences intéressantes étaient déjà full. Heureusement pour nous Google a plutôt bien géré les flux de participants. Il y avait deux files d’attente devant chaque salle, une pour ceux qui avaient réservé et une pour les standby-ers. 5% des places étaient gardées en réserve pour ces gens-là et quelques minutes avant la conférence, si vous n’étiez pas installé, les réservations sautaient et ils faisaient rentrer ceux qui n’avaient pas reservé. On a donc quand pu voir les conférences indiquées comme full. De plus, le dernier jour, il y avait des sessions labellisées “encore” et qui étaient les mêmes que celles qui étaient les plus populaires refaites une nouvelle fois par le ou les speakers. Bien vu !

Enfin, comme WeScale est Google Cloud Partner, nous avions des badges partner et c’est un sésame pour pas mal d’évènements privés et de goodies supplémentaires. Le mercredi soir, Google avait installé pour les participants un mini parc d’attraction avec une grande roue, des attractions, des food trucks, une salle d’arcade et un concert privé de 2h de The Chainsmokers, c’était fantastique.