Projets

La SNCF assure l'analyse prédictive des pannes sur son réseau Transilien

La SNCF assure l'analyse prédictive des pannes sur son réseau Transilien
La SNCF remonte 70 000 données par mois de ces nouveaux trains en Ile-de-France

Le Big Data entre dans les faits dans plusieurs grandes entreprises, la SNCF en fait un outil de productivité et d'amélioration du service client. Avec les conseils de Quantmetry, spécialiste du Big Data, la SNCF a mis en place une analyse prédictive des pannes sur son réseau régional Transilien.

PublicitéLa SNCF enlève son armure et communique de plus en plus sur ses projets informatiques. Nous avons déjà évoqué l'unification de sa production informatique avec un seul ITSM, aujourd'hui, c'est la partie régionale Ile-de-France (le réseau Transilien) qui détaille son projet de big data. Ce réseau régional compte 180 rames connectées, fournies par le canadien Bombardier, dans le cadre d'un renouvellement envisagé au début des années 2000 et achevé fin 2015. Nommées NAT, Nouvelles Automotrices Transilien, les rames sont fabriquées majoritairement près de Valenciennes.

A cet aspect industriel, la SNCF a ajouté un projet de Big Data. Chacune des rames compte en effet 7 à 8 ordinateurs embarqués. De ces rames connectées émanent 70 000 données par mois, rafraichies toutes les 30 minutes dans le système d'information de la SNCF. A partir de cette masse de données issues de son réseau, la SNCF peut obtenir un télédiagnostic des pannes possibles. C'est le projet qu'elle a testé l'an passé et qu'elle met en oeuvre cette année. 

L'exemple de la climatisation

Eviter les pannes permet d'assurer un meilleur confort aux utilisateurs, une meilleure qualité de service et des économies des deux côtés, celui de la compagnie comme celui des utilisateurs. Un exemple, celui de la climatisation : la SNCF n'a révisé qu'un tiers des rames, les deux autres étant diagnostiquées comme ne nécessitant aucune révision. Dans le passé, toutes les rames étaient révisées.

Le diagnostic est donc important et le Big Data va le permettre. C'est ce qu'a présenté  Philippe de Laharpe, chef de projet Télédiagnostic à la direction du matériel lors du salon Big Data. « On a commencé avec du small data, l'analyse manuelle, on passe au Big Data, à partir d'une masse de donnée automatisées, l'analyse des pannes est donc plus réactive et sera bientôt pro-active » précise-t-il. Le projet était à l'état de POC jusqu'à la fin de l'année dernière, il doit passer en phase de développement progressivement d'ici la fin de cette année, avec Hadoop pour le stockage de données et Spark pour leur tri.  C'est la filiale de Voyages-SNCF.com, VSC Technologies, qui assure les développements en interne avec les conseils de Quantmetry, spécialiste du Big Data.

Arriver à un système prédictif

Le projet est évolutif. Actuellement sur son réseau Transilien, la SNCF est au courant des pannes en temps réel, c'est déjà une meilleure visibilité. Elle veut arriver à un système prédictif. Par exemple, en analysant les pannes fréquentes, on peut mieux les prévoir et sortir de l'exploitation une rame en temps utile, en l'envoyant vers le bon centre de maintenance. Ce qui évite aux utilisateurs d'être impactés. On peut également repérer les sources de pannes fréquentes donc prévoir des réparations sur tel ou tel point faible.

PublicitéMais pour que le Big Data soit efficace il faut plus que des données chiffrées, il faut des explications, des interprétations de ces données, avec des croisements, et des algorithmes dédiés, c'est le machine learning. Par exemple, quand une rame est à l'arrêt elle émet quand même des signaux, il faut donc que le rapprochement avec le système de trafic indique qu'elle est à l'arrêt et que les données ne sont pas intéressantes. Il faut également une bonne collaboration avec les équipes métier pour bien connaître le système et le faire évoluer.

Le Big Data ne se décrète pas, mais prend du temps. La SNCF a su mettre en place cette période d'apprentissage et évoquer publiquement les difficultés surmontées : les données à prendre en compte, l'hétérogénéité des sources, la qualité des données dans le temps.

Partager cet article

Commentaire

Avatar
Envoyer
Ecrire un commentaire...

INFORMATION

Vous devez être connecté à votre compte CIO pour poster un commentaire.

Cliquez ici pour vous connecter
Pas encore inscrit ? s'inscrire

    Publicité

    Abonnez-vous à la newsletter CIO

    Recevez notre newsletter tous les lundis et jeudis