Du cloud computing au edge computing

L’infrastructure mondiale d’AWS : 16 régions et 70 points de présence

Depuis 2006, Amazon Web Services s’efforce de proposer à ses clients des services d’infrastructure innovants, hautement disponibles et sécurisés. Aujourd’hui, ces services s’appuient sur une infrastructure mondiale composée de seize régions. Une nouvelle région implantée en France est d’ailleurs prévue pour l’année 2017.

infrastructure mondiale AWS

L’infrastructure mondiale d’AWS : 16 régions et 70 points de présence.

L’infrastructure AWS ne se limite cependant pas à ces seize régions, aussi importantes soient-elles. Depuis 2008, AWS construit également son propre Content Delivery Network (CDN), nommé Amazon CloudFront. Celui-ci permet aux clients d’améliorer la performance de leurs applications en distribuant leur contenu statique et dynamique au plus près des utilisateurs finaux. Ainsi, grâce à CloudFront, la NASA a diffusé au monde entier en 2012 les images de l’atterrissage du robot Curiosity sur Mars. Cet événement a généré plus de trafic que les Jeux Olympiques !

Suite à l’annonce en janvier de deux nouveaux points de présence en Europe (Munich et Vienne), CloudFront en compte désormais soixante-dix à travers le monde, dont trois en France : deux à Paris et un à Marseille.

Amazon CloudFront, un atout pour la sécurité des plates-formes

Le rôle de ces points de présence ne se limite pas à la simple livraison de contenu, loin de là. Ils contribuent également à accroître le niveau de sécurité des plates-formes de nos clients, en incorporant des services de protection contre les attaques par déni de service distribué (AWS Shield, annoncé à re:Invent 2016) et contre les attaques web (AWS Web Application Firewall).

Grâce à cette défense en profondeur, il est ainsi possible de contrer l’attaque le plus tôt possible, sans les laisser atteindre les plates-formes hébergées dans les régions.

Exécuter du code sur les points de présence CloudFront : Lambda@Edge

Récemment, AWS a également donné aux points de présence CloudFront la capacité d’exécuter du code traitant le trafic entrant et sortant. Grâce à ce nouveau service nommé Lambda@Edge, nos clients sont désormais en mesure de déclencher des fonctions Lambda qui vont modifier les requêtes HTTP destinées à – ou provenant de – l’origine, c’est à dire le serveur web qui héberge l’application. Grâce à l’architecture serverless de Lambda, nos clients n’ont pas à gérer la moindre infrastructure : il leur suffit de déployer le code de leurs fonctions, qui sera automatiquement diffusé sur les points de présence CloudFront.

Lambda@Edge permet par exemple de spécialiser le contenu en fonction des propriétés du terminal : s’il s’agit d’un mobile, il est inutile de servir des images de très grande taille à haute résolution. Une image de taille réduite (et donc moins lourde) suffit, ce qui optimise l’expérience utilisateur en réduisant le temps de transfert, et économise de l’argent en servant moins de données.

Cette fonctionnalité peut également servir à authentifier l’utilisateur le plus tôt possible, ou à mener des A/B tests en montrant du contenu différent à différents groupes d’utilisateurs.

Edge computing : l’infrastructure quitte le data center

Lambda@Edge est un premier pas vers l’exécution de code en dehors des régions AWS. Cependant, la variété des usages et des besoins en infrastructure de nos clients nous a conduit à aller encore plus loin et à concevoir des services leur permettant de traiter les données à la source, dès leur production et sans qu’il soit nécessaire de les transférer vers l’infrastructure hébergée dans les régions AWS. Cela permet également d’envisager des traitements de données dans des zones où la connectivité réseau est intermittente, voire inexistante !

AWS Snowball Edge : un morceau de cloud AWS chez vous

Lancé en 2015, AWS Snowball est un équipement de stockage portable d’une capacité de 100 Téraoctets. Destiné à transférer de gros volumes de données entre le data center d’un client et son infrastructure AWS, il est par exemple utilisé par Digital Globe, l’un des principaux fournisseurs d’imagerie, de données et d’analyses terrestres mondiaux, pour transférer des Pétaoctets de données vers le Cloud.

Lors de re:Invent 2016, AWS a annoncé Snowball Edge, une nouvelle version de Snowball désormais capable d’exécuter du code localement via une architecture Lambda embarquée nommée AWS Greengrass. Ainsi, nos clients peuvent désormais disposer sur leur propre site d’une capacité de stockage et de calcul utilisable avec les mêmes APIs que celles qu’ils utilisent dans leur infrastructure AWS. Un morceau de cloud AWS dans leur data center, en somme.

Grâce à cette capacité de calcul comparable à celui d’un serveur disposant de 16 cœurs et de 64 Go de RAM, nos clients pourront par exemple appliquer des traitements complexes sur leurs données avant de les expédier vers AWS : compression, conversion de format, etc. Et ce, sans surcharger leur propre infrastructure sur site.

Snowball Edge est d’ores et déjà utilisé dans des contextes particulièrement critiques. Par exemple, Philips Healthcare le déploie dans des services de soins intensifs, où les équipes médicales l’utilisent pour stocker, traiter et visualiser les signes vitaux des patients. Ceci garantit une continuité de service et de soin, même en cas de panne informatique majeure dans l’hôpital. Dans un autre registre, le Département de la Défense américain utilise Snowball Edge pour déployer rapidement des capacités de stockage et de calcul dans des zones isolées.

AWS Greengrass : le mariage du Cloud et de l’Internet des Objets

Intégré dans Snowball, Greengrass est un service destiné à être embarqué sur des équipements possédant une puissance somme toute limitée (processeur 1 GHz, 128 Mo de RAM). Il les dote de la capacité à exécuter localement du code, sous la forme de fonctions Lambda, même en l’absence de connectivité réseau.

Grâce à Greengrass, les équipements IoT peuvent stocker et traiter localement les données qu’ils collectent. Ils peuvent également communiquer et s’échanger des messages sans passer par le Cloud. Ainsi, ces équipements pourront être déployés dans des zones isolées, disposant d’une infrastructure réseau limitée, intermittente, voire inexistante.

Bien sûr, lorsque c’est possible, Greengrass permet aux équipements IoT de se connecter au Cloud pour se synchroniser et y transférer des données traitées ou agrégées localement. Ceci permet le cas échéant de réduire les besoins en bande passante et donc les coûts associés.

L’infrastructure est partout

On le voit, les frontières traditionnelles entre l’infrastructure et les équipements client tendent à disparaître. Les nouveaux usages nécessitent de disposer de capacités de stockage et de traitement local, au plus près de la source des données et parfois même en l’absence de connectivité réseau.

Depuis 2006, AWS propose constamment à ses clients des services innovants, hautement disponibles et sécurisés comme Lambda@Edge, Snowball Edge ou Greengrass.

Nous sommes impatients de voir comment ils vont les utiliser. L’histoire ne fait que commencer…

Julien Simon

Julien Simon

Principal Technical Evangelist chez Amazon Web Services. Avant de rejoindre AWS, Julien a occupé pendant 10 ans des fonctions de CTO/VP Engineering dans des startups web de premier plan. Il est donc particulièrement intéressé par les sujets liés à l’architecture, au déploiement, à la performance, à la scalabilité et à la data. En tant que Technical Evangelist, Julien parle très fréquemment dans des conférences et des ateliers techniques, où il va à la rencontre des développeurs et des entreprises pour les aider à donner vie à leurs idées grâce à l'infrastructure d'Amazon Web Services.

Vous aimerez aussi...