directeur général France d'Informatica
Publicité CIO. L'Open Source fait une percée dans les offres ETL qu'en pensez vous ? Didier Guyomarc'h. Aujourd'hui, on ne voit pas beaucoup l'Open Source dans les offres ETL. Seule la presse en parle. Il y a beaucoup de fumée mais pas beaucoup de feu. Le modèle de l'Open Source est conceptuellement intéressant mais nos clients ne veulent pas des montées en version tous les dimanches. Ils souhaitent avant tout de la stabilité tout en ayant un engagement de résultats c'est à dire du 24/24. Avoir de la réactivité du support de l'assistance et de la certifications et de qualification au niveau des connecteurs. Le concept de l'open source dans l'absolu m'apparaît une bonne démarche pour des applications non critiques. L'open source a essentiellement pris corps surtout sur les applications départementales et autour des services du Web comme les serveurs du type Apache ou les messageries. Dans le cadre d'un ETL, il faut y réfléchir à deux fois. L' Open Source n'est pas pour l'instant une réalité opérationnelle. L'ETL a beaucoup évolué ces dernières années. Il ne s'adresse plus uniquement aux outils décisionnels. L'ETL a longtemps été considéré uniquement comme un outil qui permet d'accéder aux différentes sources de données dans l'entreprise pour charger mon datawarehouse. Même si aujourd'hui encore, c'est une réalité importante de notre chiffre d'affaires pour 50 %. L'autre moitié correspond à la synchronisation de système opérationnel, la migration de données, et la consolidation d'applicatifs. CIO. Quelles sont les bonnes pratiques pour la mise en place d'un ETL ? D. G. Avant de répondre, il faut repositionner l'ETL ? De quoi parle t-on. Pour nous, la démarche de gestion et d'intégration de données dans l'entreprise. Est ce que l'on parle purement d'intégration de données ou d'intégration et de qualité de données. Ce qui intéresse aujourd'hui les DSI, c'est de répondre à des problématiques liées au métier, sachant qu'il est soumis à des contraintes budgétaires. Etre capable d'apporter un meilleur service au métier tout en ayant un budget serré. Au regard de ces deux contraintes, aujourd'hui la problématique de flux de données, n'est pas seulement une problématique au sens infrastructure mais c'est plutôt une problématique pour répondre à des besoins métier tel que la mise en place de nouvelles applications, de référentiels d'entreprise etc. Face à cela, il va falloir gérer des flux de données, savoir mettre en place des indicateurs, mais aussi gérer des migrations, la synchronisation, la consolidation et la qualité de données. Pour cela, il faut avoir une vraie plate-forme de gestion des données d'entreprise donc d'avoir une approche par silo. Ce que nous demande les DSI, c'est de mutualiser et mettre en oeuvre des bonnes pratiques afin de les réutiliser pour d'autres projets le cas échéant. Un certain nombre de compétences peuvent être mutualisées. Il est donc intéressant de réfléchir par exemple, à des notions de compétences communes basées sur les technologies de gestion de flux de données et qualité de données. CIO. Quels sont les domaines pour lesquels vous constatez la plus forte demande ? D.G. Le début des années 2000 était celui de l'intégration dans le domaine applicatif. Ce que l'on appelait les EAI. A partir de 2003, il y a une véritable demande autour de la problématique des données et de la gestion des données et de leur intégration. Il fallait déjà savoir répondre aux fluctuations du marché en terme de concurrence. Outre cela, les contraintes réglementaires tels que Bâle 2, les normes IAS et IFRS ont obligé les entreprises à garantir la véracité de l'information. Dans un tel contexte, les données prenaient donc toutes leur importance. Aujourd'hui, ce marché est en pleine croissance. Il est évalué à environ 13 milliards de dollars par IDC. Aujourd'hui, la demande la plus forte derrière les outils décisionnels concerne la migration des données. Celle-ci répond aussi à un impératif qui est celui de modernisation du système d'information. Cela signifie qu'on à des SI qui ont évolué. Par exemple, certains clients ont arrêté leur mainframe, passant de systèmes propriétaires à des environnements ouverts tels que Linux, Windows ou Unix. L'enjeu étant de migrer leurs données. Lors de cette migration, il est donc impératif de prendre en compte la qualité des données et s'assurer de la cohérence n amont et en aval des données. Dans ce cadre, la synchronisation des données a également un rôle fondamental. Cette demande représente maintenant un tiers de nos clients ; CIO. Quelles sont les tendances du marché ? D.G. Le marché est soumis à une concurrence assez forte. De plus en plus, le web accélère les choses. Quelque soit le domaine, les SI fonctionnent non stop. On parle de hub de données qui permet à l'entreprise non de transférer les données en temps réel. Conséquences : la volumétrie et le traitement des données explosent. La fluidité de ces données jouent également un rôle important dans le SI. On est donc dans une phase plutôt de développement. Autre élément important : l'arrivée de formats de données dites non structurées comme les e mail les PDF ou Excel etc. CIO. Pourquoi l'ETL se positionne-t-il sur le créneau de l'ASP ? D.G. Informatica a lancé une offre ASP issue de deux partenariats l'un avec SalesForce et l'autre avec Oracle. Notre approche en matière d'ASP est pragmatique. Elle dépendra du succès à venir de l'ASP. Notre démarche va s'effectuer en trois étapes. La première consiste à développer des connecteurs via des partenariats. Un moyen d'évaluer ce marché. Deuxième étape : si la demande est avérée, nous investirons plus en R&D et développeront plus de connecteurs. Nous collaborerons aussi avec des éditeurs verticaux ayant des offres ASP. Enfin, dernière étape : nous proposerons des services à la demande. Mais pour l'instant, cela reste une demande encore très atypique de la part de nos clients, de l'ordre de 1 à 2 %, à l'exception d'ALD Automotive. Ce dernier a sélectionné Salesforce comme solution GRC et a utilisé l'un de nos connecteurs pour accéder à ses données Salesforce. En revanche, sur le marché américain, nous avons deux types de demande. L'ASP dont on a parlé précédemment où il s'agit de corréler les données de gestion relation client externes avec les informations internes. Et le BPO qui consiste à externaliser les fonctions non stratégiques et leurs données, appartenant à l'entreprise. Toutefois, cette approche reste spécifique au marché américain. CIO. Comment votre offre va-t-elle évoluer ? D.G. La notion de temps réel est un élément important dans la prise en compte des demandes de l'entreprise. Même cas de figure pour les données non structurées. Notre engagement de demain : garder la richesse de notre offre au sens connecteurs mais aussi être en mesure de prendre en compte l'hétérogénéité du SI dans un contexte temps réel.
Article rédigé par
Sandrine Chilotti
Commentaire
INFORMATION
Vous devez être connecté à votre compte CIO pour poster un commentaire.
Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire