Tweet
Partager
Envoyer
Cabinet de conseil data cloud et transformation digitale - Micropole

Comment Micropole a accompagné Scor dans l’automatisation, la performance et la gouvernance, notamment à travers le déploiement de Databricks

Retour d’expérience de SCOR, 4ème réassureur mondial et présent dans plus de 160 pays avec 3 500 collaborateurs. Le groupe offre à ses clients une gamme innovante et diversifiée de solutions et de services pour le contrôle et la gestion des risques.

Enjeux

Dans le cadre du redéveloppement du système de gestion de réassurance OMEGA (OMEGA 2.0), l’évolution du reporting s’est imposée comme un axe stratégique pour accompagner les transformations techniques et fonctionnelles.
L’objectif principal était d’adapter le reporting basé sur SAP Business Objects aux nouvelles exigences technologiques et métiers, tout en intégrant les demandes spécifiques des utilisateurs. Les enjeux du projet étaient les suivants :

  • Automatiser la génération et la distribution des packs de reporting pour les souscripteurs.
  • Améliorer la gestion des sinistres grâce à une architecture optimisée et une refonte complète des indicateurs et univers.
  • Standardiser et migrer l’environnement de reporting de Sybase vers Netezza puis DB2-Azure pour plus de performance et d’évolutivité.
  • Préparer la transition vers une Data Platform moderne basée sur Databricks afin d’améliorer la gouvernance et l’exploitation des données analytiques.
Grâce à l’expertise de Micropole, nous avons réussi à moderniser notre architecture, automatiser nos processus et améliorer la gouvernance de nos données. Aujourd’hui, nous disposons d’une plateforme agile, performante et évolutive, parfaitement alignée avec nos ambitions stratégiques.
Patrick POUX
Head of IT & Data - SCOR

Méthode

Micropole a accompagné SCOR avec la mise en place d’une méthodologie structurée basée sur les principes de l’agilité, de l’industrialisation des processus et une gouvernance rigoureuse des données afin de livrer des solutions robustes et évolutives, tout en garantissant une adoption fluide par les utilisateurs finaux.

Automatisation de la génération et distribution des reportings

1. Ateliers de cadrage avec les souscripteurs :

  • Identification des besoins spécifiques des équipes commerciales.
  • Définition des KPI critiques à inclure dans les reportings synthétiques.
  • Cartographie des flux de données et des interactions entre Business Objects et l’Intranet SCOR.

2. Développement du projet en mode itératif (Agilité – Scrum)

3. Industrialisation et automatisation :

  • Développement d’un script automatisé pour générer et formater les documents Sap Business objects au format PDF.
  • Mise en place d’un batch programmé pour garantir une exécution régulière.
  • Intégration avec le système de messagerie SCOR pour une distribution automatique des documents aux souscripteurs.


Modélisation et mise en place des Datamarts

1. Conception et gouvernance des données :

  • Structuration des besoins métiers à travers des workshops collaboratifs.
  • Définition d’un modèle de gouvernance des indicateurs.
  • Élaboration d’un glossaire métier partagé.

2. Modélisation et implémentation des Datamarts :

  • Mise en place de 7 univers, intégrant 483 dimensions et indicateurs clés.
  • Optimisation des modèles de données en appliquant les meilleures pratiques pour une structuration efficace des datamarts.

3. Intégration continue et validation métier :

  • Développement sous GIT pour assurer un suivi rigoureux des évolutions.
  • Phase de recette utilisateur avec démonstrations en conditions réelles.


Migration vers DB2-Azure et modernisation du Reporting

1. Audit et analyse de l’existant : identification des dépendances critiques entre systèmes, benchmarking des performances pour anticiper les éventuelles régressions…

2. Migration itérative et contrôlée :

  • Mise en place d’un Data Pipeline hybride pour assurer une transition progressive et refonte des procédures stockées
  • Automatisation des tests de charge et de performance pour garantir un temps de réponse optimal des reportings

3. Montée en compétence et accompagnement des équipes : sessions de formation sur la nouvelle architecture et les bonnes pratiques SQL, documentation complète sur les nouvelles procédures de requêtage et d’optimisation des performances.


Mise en place d’une Data Platform sur Databricks
 

1. Analyse et POC :

  • Benchmark des solutions cloud adaptées à l’écosystème SCOR.
  • Comparaison des performances et coûts entre Snowflake, Databricks et BigQuery.

2. Industrialisation de la plateforme :

  • Déploiement d’une architecture Lakehouse Databricks pour centraliser les données.
  • Automatisation des flux ETL avec Databricks Delta Live Tables et orchestration via Azure Data Factory.

3. Formation et montée en puissance des équipes :

  • Sessions de coaching technique à destination des Data Analysts et Data Scientists.
  • Intégration avec Tableau Software pour une expérience utilisateur avancée.

Bénéfices

  • Amélioration du suivi client et de la gestion des sinistres
  • Renforcement de l’efficacité commerciale et de la fidélisation client
  • Automatisation et gains de productivité
  • Adoption et intégration technologique réussies


Perspéctives et prochaines étapes :

  • Généralisation de Databricks : étendre son usage à d’autres domaines métiers et intégrer plus de flux de données en temps réel.
  • Poursuite de l’adoption de Databricks en intégrant des fonctionnalités avancées d’IA et d’apprentissage automatique.
    Renforcement de la gouvernance des données avec des outils de data lineage et monitoring avancé.
  • Évolution vers un modèle de self-service BI.
ACCÉLÉREZ AVEC NOUS
ÊTES-VOUS DATA FLUENT ?