Carlos Goncalves (Société Générale) : « 80 % de notre infrastructure sera dans le cloud en 2020 »


Innover et garantir la performance : un duo à assurer
Les DSI ne peuvent se permettre de sacrifier l'un au profit de l'autre. D'un côté, il leur fait innover et permettre l'innovation métier. De l'autre, "il faut que ça marche" : la performance est une obligation, même un pré-requis. Pour cela, comme en témoignent les DSI de grands comptes interrogés...
DécouvrirLa Société Générale a présenté sa stratégie concernant ses infrastructures, orientée cloud hybride, le 18 octobre 2018 lors d'un Talk & Touch. Avec 300 millions d'euros investis sur trois ans, l'objectif est d'économiser 100 millions par an à partir de 2020 pour un budget annuel d'un milliard.
Publicité« Une transformation digitale ne peut se faire qu'en s'appuyant sur une infrastructure scalable [évolutive] » a martelé Carlos Goncalves le 18 octobre 2018. A l'occasion d'une réunion du cycle Talk & Touch, organisée par la banque, le directeur des infrastructures informatiques du groupe Société Générale a présenté la stratégie technique pour les prochaines années. Pour lui, « la transformation en cours ne s'arrêtera pas car elle est voulue par le client, celui-ci exigeant une expérience utilisateur tous les jours fluide et ubiquitaire. »
Comme l'indiquait Christophe Leblanc, Directeur des Ressources et de la Transformation numérique du groupe Société Générale, les infrastructures du Groupe Société Générale sont mutualisées. « Cette mutualisation nous permet de les dimensionner sur la moyenne des usages et non pas sur une série de pics » a expliqué Carlos Goncalves. Comme l'infrastructure est orientée cloud, il est, de plus, aisé de provisionner ou de déprovisionner au fil des besoins. Le recours au cloud s'opère dans le cloud privé du groupe comme dans le cloud public. Mais avec une précaution importante, relevée par le directeur des infrastructures informatiques : « notre cloud privé est sans spécifique, tout ce qui est dans le cloud public est donc réversible dans le cloud privé. »
De lourds investissements pour une rentabilité importante
Si le budget des infrastructures de la Société Générale représente globalement un milliard d'euros par an, celui consacré à leur évolution est de 300 millions sur trois ans (2017-2020). A partir de 2020, la Société Générale attend un retour sur investissement sous forme d'une économie de 100 millions par an. En 2020, 80 % de l'infrastructure de la Société Générale sera en mode cloud (60 % aujourd'hui). A terme, le cloud public devrait représenter 20 à 30 % (5 % aujourd'hui). Le recours au cloud public a nécessité, dans le contexte juridique très contraint du secteur bancaire, un lourd travail juridique. Ce travail a été mené avec les deux fournisseurs à ce jour retenus, AWS et Microsoft Azure, en 2015. Carlos Goncalves a noté : « nous n'avons pas choisi plus de deux partenaires pour l'instant afin d'avoir une masse critique ». Le choix d'un cloud hybride permet de garantir à la fois l'agilité et la conformité.
La Société Générale s'est surtout dotée d'une plate-forme pour commissionner / décommissionner des ressources à la demande, grâce à une simple interface web aisée à utiliser par toutes les DSI métier des différentes branches. Cette plate-forme donne une vision claire sur le coût technique de chaque solution possible, à chacun ensuite de prendre ses responsabilités et d'assumer ses choix. Le recours au cloud public se justifie-t-il lorsque l'on a le volume de la Société Générale ? « En IaaS, notre masse critique fait que le cloud privé de la Société Générale est moins cher que celui d'AWS ou d'Azure mais, par contre, le cloud public est plus intéressant pour le PaaS et certains services » a répondu Carlos Goncalves.
PublicitéUne logique de plate-forme testée par un premier service basique
« La plate-forme mise en place fournit aux utilisateurs une seule façon de se connecter, de consommer des ressources, de les utiliser, de les mesurer, de suivre les coûts... » s'est réjoui Pierre Haslee, responsable adjoint de la plate-forme de services cloud du Groupe Société Générale. Parce qu'exposer des services est sans doute un bien... mais c'est sans doute mieux de faire en sorte que ces services puissent être aisément utilisés. C'est le but de cette plate-forme. Pour celle-ci, la Société Générale a fait le choix de standards ouverts du marché, notamment des logiciels libres. Pour mettre en place les outils, un test a été réalisé avec un service basique : la base de données PostGreSQL. Pierre Haslee a justifié : « nous avons mis en place tous les outils et nous les avons validé avec ce test. »
Si les DSI métiers peuvent consommer les ressources ainsi exposées, elles peuvent aussi publier sur la plate-forme des services exploitables par API. Et la plate-forme peut être ouverte à des tiers, notamment des start-ups pouvant utiliser ou exposer des services. Lorsque des features teams travaillent en parallèle, chacune peut suivre l'avancement des travaux des autres, avec les progrès accomplis et les plannings de publications de fonctionnalités. Pour aider les différents intervenants, des Cloud Captains ont été formés afin d'évangéliser l'entreprise.
Une évolution sous fortes contraintes
La principale difficulté rencontrée par la Société Générale dans cette démarche est réglementaire. Une banque est en effet soumise à de nombreuses contraintes, parfois apparemment antagonistes, comme la sécurité et l'ouverture. Parmi les contraintes avec lesquelles il a fallu composer, il y a ainsi la Directive PS2E (Prestations de Services Essentiels Externalisés). Tous les services de cloud public utilisés doivent donc permettre trois garanties : réversibilité, auditabilité complète et sécurité. Côté sécurité, elle est garantie par l'encryptage des données avec des clés qui restent au sein de la Société Générale. Et, surtout, aucune donnée sensible ne peut être stockée dans le cloud public. L'auditabilité fait tout de suite davantage tiquer quand on parle d'AWS ou d'Azure. « Oui, nous les avons audités » a affirmé Carlos Goncalves.
Côté données personnelles, le Régulateur préconise une localisation des données là où elles sont régulées. Les données des clients américains sont donc stockées aux Etats-Unis, celles des clients européens en Europe. Parfois, dans certains pays (Russie notamment), c'est toute l'infrastructure qui doit être clonée sur place afin de garantir un traitement local.
Article rédigé par

Bertrand Lemaire, Rédacteur en chef de CIO
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire