Dossier Data fondations : panorama des solutions (2e partie)

Tout parcours analytique commence par de solides fondations qui, une fois posées, constituent la colonne vertébrale des projets liés aux données. Ces fondations permettent aux analystes de données de découvrir rapidement les insights les plus pertinents, aux data scientists de créer des modèles prédictifs ad hoc et aux opérateurs de se concentrer sur l'enrichissement des données. Mais encore faut-il faire les bons choix d'architecture et de technologies pour garantir une mise à disposition efficace, sécurisée et maîtrisée sur le plan budgétaire. Dans la seconde partie de ce dossier, nous dresserons un portrait des outils permettant de construire de flexibles fondations pour les données.
PublicitéIl existe une multitude d'outils permettant de construire de robustes fondations de données. Du stockage aux plateformes de données, en passant par les infrastructures cloud, tour d'horizon des principaux acteurs en présence. Les briques nécessaires pour un socle data robuste se composent tout d'abord d'un système de stockage simple mais performant. Certaines entreprises choisissent d'appliquer la règle du « 3-2-1 » qui consiste à posséder en tout trois copies de ses données, sur deux supports différents, tout en maintenant en permanence une copie hors site. Bien entendu, l'infrastructure cloud est un autre composant incontournable d'un socle data digne de ce nom. Qu'il soit public, privé ou hybride, le cloud propose de multiples variations pour les espaces de stockage, l'utilisation de services réseau, mais aussi l'hébergement de plateformes, de sites web ou d'applications.
Enfin, les plateformes de données, qui revendiquent presque toutes le statut de plateforme « unifiée », sans toutefois l'être complètement dans la plupart des cas, offrent différentes prestations allant de l'intégration de données jusqu'à la création de modèles de machine learning. Il est important d'étudier avec précision leurs offres afin de déterminer si elles correspondent réellement à vos besoins.
De la Data Fabric au stockage flash
Dans le domaine du stockage, NetApp propose un portefeuille contenant tous les ingrédients permettant de concevoir une « data fabric », concept d'ailleurs inventé en 2015 par George Kurian, alors CTO de NetApp. « Notre approche démarre par une prestation de conseil avec nos équipes qui accompagnent les entreprises, notamment dans leurs projets de cloud hybride ou de move-to-cloud. Viennent ensuite les déploiements de nos technologies, on-premise et/ou dans le cloud, où les principaux hyperscalers proposent leurs services premium de gestion des données basées sur nos technologies », déclare Arnaud Bretillon, directeur monde du portefeuille Professional Services de NetApp.
Chez Pure Storage, spécialiste du stockage flash, le discours est davantage orienté sur les modèles de souscription. « Nous proposons quatre modèles de souscription, qui vont du 100 % Capex au 100% Opex, avec des modèles hybrides où les deux sont mixés », note Gabriel Ferreira, directeur technique France de Pure Storage. L'offre de services Evergreen de Pure Storage, à travers sa déclinaison Flex, propose aux entreprises de réunir le meilleur des deux mondes : acquérir ses propres ressources matérielles de stockage en les adossant à une facturation liée à la capacité de stockage consommée.
De son côté, Commvault, acteur historique de la gestion et de la protection des environnements de données, s'est transformé en une plateforme unifiée pour la gestion de ces environnements. « La valeur s'est déplacée dans les environnements digitaux, les risques cyber aussi. Une fois les challenges de protection et de sécurité traités, il nous faut adresser les challenges de transformation et d'innovation. Nous permettons ainsi aux entreprises de déplacer de manière automatique, transparente et naturelle des environnements de données traditionnels vers les hyperscalers ou des clouds privés », précise Milos Brkovic, directeur Général de Commvault France.
PublicitéChez Snowflake, spécialiste du datawarehouse cloud natif, l'enjeu se porte sur l'innovation. « Nos éléments fondateurs sont que le coeur même de notre moteur est basé sur SQL et que nos deux fondateurs ont réussi à séparer les 'tiers' de stockage et de compute dans le traitement des requêtes, ce qui nous permet d'être 'zero copy clone' », avance Edouard Beaucourt, directeur France de Snowflake. À partir de ces fondations, trois grandes vagues d'innovation ont eu lieu. « La première a été de devenir un acteur du datawarehouse d'entreprise sur tout type de données dans le cloud. La deuxième d'ajouter le sujet du contenu (capacités de collaboration et de data sharing). La troisième de se projeter dans le monde de l'application native au cloud et aux data avec, entre autres, le développement de la technologie Streamlit », ajoute le dirigeant.
Aiven, à la frontière entre stockage et infrastructure cloud
Quant à Aiven, acteur traditionnel du stockage et de l'infrastructure cloud, il fournit une plateforme pour gérer les technologies de bases de données open source telles que Kafka, M3, Cassandra, OpenSearch, PostgreSQL, MySQL, Redis, InfluxDB et Grafana. « Nous pensons que la véritable valeur provient de la transformation des applications numériques (Saas et Paas). Les structures de bases de données devenant complexes et multicouches, il est difficile de gérer ses bases de données avec un seul service. Grâce aux solutions de gestion de données open source, Aiven permet aux organisations de choisir parmi une offre flexible pour répondre efficacement à leurs objectifs et atteindre le plus haut niveau de capture », note Thomas Dubus, VP Sales EMEA chez Aiven.
Nutanix, spécialiste des plateformes cloud et des solutions d'infrastructure hyperconvergées, intègre quant à lui un ensemble de services permettant d'héberger tout type d'application et de données dans le cloud de son choix (privé, public, hébergement). « Nutanix se positionne en tant que plateforme HCI offrant des services de stockage de données non structurées et structurées, des services de cyber-résilience inhérents à la plateforme et spécifiques aux données. Nous nous adressons à toutes les entreprises souhaitant accélérer leur transformation digitale, ce qui passe notamment par la refondation et la modernisation de l'infrastructure », résume Bruno Picard, CTO France de Nutanix.
La plateforme d'intégration as-a-service (iPaaS) Boomi fournit de son côté un service Cloud pour les scénarios d'intégration d'applications, de données, de processus et d'architecture orientée services (SOA). Cette plateforme multiclient prend en charge les intégrations Cloud-Cloud, Cloud / sur site, Sur site / sur site et B2B. Elle gère l'intégration en temps réel et évolue pour répondre aux demandes volumineuses des environnements mobiles, d'extraction, de transformation et de chargement (ETL) et d'échange de données informatisé (EDI). Créée dans les années 2000, rachetée par Dell en 2010, Boomi a repris sa liberté en mai 2021 suite à son rachat par des fonds d'investissement.
Opérateur cloud et télécom B2B, Jaguar Network accompagne la « data fondation » des entreprises principalement à travers deux services. Le premier est l'externalisation des sauvegardes. « Il s'agit d'un service haute disponibilité, géo-redondé sur trois datacenters en France, avec le plus haut niveau de durabilité des données connu dans le pays », détaille Tommy Boivin, chef de produit cloud chez Jaguar Network. Le second est la reprise d'activité (PRA). « Il s'agit d'une solution de réplication simple à mettre en place dans les environnements VMware on-premise, pour laquelle les clients paient uniquement les ressources d'infrastructures Cloud XPR lorsqu'ils démarrent leur PRA » ajoute Tommy Boivin.
Plateformes de données : unification et hybridation
Le mot d'ordre des plateformes de données qui suivent est « unification et hybridation ». C'est le cas de Denodo, qui s'est fait connaître par sa technologie de virtualisation de données. « Nous nous présentons tout d'abord comme une plateforme d'intégration de données, c'est notre ADN. Mais, surtout, nous sommes une plateforme de management de la donnée », explique Vincent Fages-Gouyou, EMEA product director chez Denodo. « Nous permettons aux entreprises de créer un modèle sémantique, un modèle logique de donnée. Nous implémentons aussi de l'IA pour apprendre du comportement des sources et du type de consommation des utilisateurs, ce qui va nous permettre d'orchestrer des requêtes dans des architectures hybrides, et de mettre en place le modèle de sécurité et de gouvernance. Ensuite, nous avons la capacité à livrer la donnée, au travers d'interfaces SQL, de data services ou de catalogues opérationnels », note Vincent Fages-Gouyou.
Databricks se définit quant à lui comme une plateforme de gestion de données unifiée. Son offre de data lakehouse combine le meilleur des data warehouses et des data lakes en une plateforme unique, afin de traiter tous les cas d'usage de données, d'analytique et d'IA. « Notre plateforme Lakehouse permet de lier tous les usages liés à la donnée et facilite la collaboration ouverte entre tous les utilisateurs. Elle permet aussi, à chaque étape, quel que soit le produit créé, de revenir en arrière afin de comprendre les hypothèses et les jeux de données impliqués », commente Nicolas Maillard, senior director Field Engineering Central & SEMEA de Databricks.
Virage vers le cloud des acteurs historiques
Dans un environnement de plus en plus hybride, Informatica se positionne comme une plateforme Cloud native de gestion de données basées sur l'IA. « La donnée n'est plus circonscrite à un petit périmètre dans l'entreprise. Aujourd'hui, de nouveaux utilisateurs apparaissent. Ils ont moins vocation à bien connaitre la donnée, mais ils la manipulent au quotidien pour exercer leur métier », précise David Decloux, director presales South Europe chez Informatica. C'est la raison pour laquelle Informatica a introduit des modules Low code / No code afin de préparer le travail et de rendre la consommation des données la plus simple possible. Quant au moteur « Claire » conçu par Informatica, cette technologie de gestion des données optimisée par l'IA et basée sur les métadonnées apprend le paysage des données de l'entreprise afin d'automatiser des milliers de tâches manuelles et de compléter l'activité humaine par des recommandations et des automatisations.
Chez Teradata, éditeur historique de datawarehouses d'entreprise, le virage vers le Cloud est très présent. « Nous sommes un éditeur de logiciel best-of-breed pour la gestion des données, intégré et ouvert, qui a pris le virage Cloud avec une solution native cloud baptisée VantageCloud Lake », déclare Christophe Gendre, VP territory France & Benelux chez Teradata. « Nous sommes une brique angulaire d'une data fondation, historiquement on-premise et de plus en plus dans le cloud. Le côté hybride de notre positionnement est capital pour beaucoup de nos clients et pour le marché. C'est un élément différentiateur de notre offre. Nous sommes par ailleurs une plateforme très ouverte vis-à-vis de nos partenaires », complète Jean-Marc Bonnet, sales technology director chez Teradata.
Dataiku, de son côté, se présente comme une plateforme de data science d'entreprise. « Nous sommes une plateforme de gestion de projets data de bout en bout, depuis l'ingestion et la préparation des données jusqu'à la création de modèles de ML, pour gérer par exemple des stress tests dans le milieu bancaire ou améliorer la connaissance client dans le secteur du luxe. Une fois que la donnée est préparée et que le bon modèle a été identifié, celui-ci peut être mis en production afin qu'il soit disponible dans des tableaux de bord pour des applications de type CRM ou ERP », détaille Amaury Delplancq, vice-president South EMEA de Dataiku. Le data store du fournisseur permet à des experts de la donnée (data scientists, data engineers...) de travailler sur des projets avec des collaborateurs plus orientés « business » (data analysts...). « Nous nous connectons, en entrée, aux données de nos clients. En sortie, nous mettons en production les modèles conçus sur la plateforme », ajoute Amaury Delplancq.
Mais une « data fondation » ne serait rien sans la partie conseil. C'est le positionnement de Hitachi Solutions, intégrateur des solutions Microsoft (Microsoft Partner), qui met l'accent sur les accélérateurs. « Que ce soit pour des solutions CRM ou d'autres applications métiers, les accélérateurs sont des packages visant à accélérer la mise en place des fondations d'une plateforme de données, afin de connecter différentes sources de données, les stocker dans un endroit centralisé et sécurisé, puis faciliter la consommation par des métiers », commente Robert Worsley, head of data & analytics chez Hitachi Solutions. « Le déploiement accéléré d'une solution standard, 'out-of-the-box', nécessitant peu de personnalisation, s'avère une solution idéale pour les entreprises souhaitant procéder à la transformation de leur activité le plus rapidement possible et à moindres coûts. Plutôt que de partir d'une page blanche, nous proposons des packs autour de la CDP et notamment un data assessment qui permet de partir sur de bonnes bases permettant aux clients de lancer leur transformation digitale sereinement et d'être opérationnel plus rapidement », conclut Robert Worsley.
Consulter la première partie de ce dossier : les bons choix pour dynamiser son patrimoine de données.
Consulter la troisième partie de ce dossier : retour sur la conférence Data fondations.
Article rédigé par
Fabrice Deblock
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire