Numérique et assurance

De la donnée sans valeur à l’information en or (1)

Marc Dupuis, directeur métier Digital, Optimind Winter
Avec le numérique et les promesses qui l’accompagnent, les assureurs font face à des enjeux qui vont révolutionner ce secteur
Il est fondamental et urgent de maîtriser les données et de les intégrer dans la stratégie des entreprises
DR, Marc Dupuis, directeur métier Digital, Optimind Winter

Toute industrie a besoin d’évoluer pour retrouver un nouvel élan et conquérir de nouveaux marchés. Ces transformations se matérialisent couramment par des produits et des services innovants souvent accompagnés d’une relation différente avec les clients. Pour le secteur assurance, les changements sont plus souvent dictés par les réglementations, l’environnement fiscal ou les choix politiques dans certains domaines sous-jacents aux produits. Avec le numérique et les promesses qui l’accompagnent, les assureurs font face à des enjeux qui vont révolutionner ce secteur.

L’un des objectifs visés par le numérique est de pouvoir valoriser l’ensemble des données, qu’elles soient structurées ou non, en d’autres termes de les transformer en informations riches. L’un des avantages est d’offrir la possibilité d’équiper un client d’une gamme de produits mieux adaptés à son contexte ou bien l’inciter à ne pas partir à la concurrence. Les données concernées sont aussi bien issues des processus internes, de plus en plus dématérialisés, que des nouveaux outils du numérique, canaux de distribution, outils de mobilité, objets connectés ou encore médias sociaux.

Pour réussir cette mutation et valoriser les données, des étapes clés sont nécessaires : les identifier et les collecter, les traiter et les présenter.

Identifier et collecter les données.

L’étape initiale consiste à identifier les données faisant partie du patrimoine informationnel de l’entreprise. Depuis déjà de nombreuses années, la mise en place de data warehouses (Ndlr : entrepôts de données) et de data marts (Ndlr : magasins de données) facilite en partie ce travail en définissant des infrastructures permettant d’accueillir les informations organisées et exploitables. Peu d’organismes d’assurance peuvent se prévaloir de posséder et d’exploiter un dictionnaire des données exhaustif avec un accès aisé à l’ensemble des éléments, il s’agit cependant de l’objectif recherché. L’un des tout premiers avantages concurrentiels est d’être capable de tirer profit de l’ensemble des données que possède l’assureur, y compris celles qui ne sont pas immédiatement accessibles, comme les pièces justificatives d’un sinistre, par exemple.

Caractéristiques des contrats d’assurance.

Une première source de données concerne l’ensemble des éléments liés aux caractéristiques techniques et au cycle de vie des contrats d’assurance. Solvabilité II introduit, au titre des exigences réglementaires, une obligation d’identification et de maîtrise de la qualité de ces données. Pouvoir référencer et analyser ces dernières est une étape fondamentale pour l’exercice du métier de l’assureur, pour l’analyse du risque, les prospectives de résultats et la stratégie d’entreprise.

Gestion de la relation client.

Une autre source importante d’informations concerne l’ensemble du périmètre client, les outils de gestion de la relation client (CRM) sont également bien implantés dans les directions marketing et commerciale, mais souffrent bien souvent d’un manque d’interaction avec les autres données d’entreprise – produit, technique, gestion, données partenaires… –, ce qui peut limiter la portée de leur traitement. Et pourtant, la connaissance du client, son équipement, sa situation et ses besoins sont essentiels pour avoir une politique commerciale efficace et génératrice de valeur. Les types d’informations disponibles sont ceux utilisés pour gérer les contrats et piloter l’entreprise. A ces éléments s’ajoutent ceux qui peuvent être recueillis sur diverses sources, comme les sites de contenus opérés par l’organisme d’assurance ou les systèmes gérant la relation client, site de e-commerce, centres d’appels ou données alimentées par les réseaux de distribution.

Le terme « collecter » dans ce cas pourrait représenter un non-sens car, par définition, ces informations sont disponibles. Cependant, leur accès n’est pas aussi immédiat à cause de la multiplicité des systèmes sources, qu’ils soient orientés infocentre ou pas. Leur mise à disposition nécessite donc de concevoir des outils adaptés et ouverts afin de pouvoir les exploiter.

Collecte dynamique.

Une cartographie dynamique des données possédées et traitées par l’entreprise est ainsi la première étape fondamentale à mener comme premier socle du numérique. Dans un deuxième temps, il s’agit d’identifier les données externes qui pouvent présenter un intérêt pour les études, analyses ou expérimentations afin de fournir plus de valeur aux données internes. Nous pensons spontanément aux renseignements personnels liées aux clients, mais il peut s’agir également d’informations comportementales, de marché ou, de manière générale, de tous les éléments qui permettent d’enrichir un modèle d’analyse. Les sources sont nombreuses et en croissance constante, citons l’open data, les médias sociaux ou les objets connectés pour n’en citer que quelques-uns. Notons que certaines sources, comme les objets connectés, passeront de la catégorie externe à interne lorsque les assureurs pourront les intégrer pleinement dans une offre d’assurance.

Ici, la collecte prend tout son sens, car nous pouvons être face à des informations structurées ou non structurées, préférons le terme « multistructuré », qui est plus proche de la réalité de la plupart des données disponibles. Pour certaines des sources, les principaux défis sont le volume, la variété et la vitesse de mise à disposition, précisément le triptyque proposé par Gartner Group pour caractériser le Big Data. Ces éléments se présentent sous la forme de textes, de chiffres, d’images, de sons ou encore de vidéos.

Outils d’exploitation.

Les technologies et outils permettant d’exploiter le Big Data deviennent de plus en plus matures. Nous pouvons citer Hadoop et Map/Reduce, qui  traitent des masses considérables de données en batch (Ndlr : par lots), Cassandra, une base de données orientée colonnes, ou encore Mahout, qui exécute des algorithmes de machine learning (Ndlr : apprentissage automatique) sur des clusters (Ndlr : systèmes) Hadoop.

Ces technologies sont complexes à mettre en œuvre, mais elles sont le passage obligé pour bien exploiter le Big Data. Elles reposent en grande partie sur les infrastructures et les outils développés par les géants d’internet, comme Google, Yahoo, Amazon ou Facebook. L’accès à certaines données externes précédemment citées n’est pas immédiat, il est souvent nécessaire de faire appel à des agrégateurs ou à des sociétés spécialisées qui peuvent fournir des éléments retraités ou pas.

Une bonne analyse des sources de données qu’on souhaite utiliser est indispensable pour éviter d’être submergé par un flot inexploitable, sans parler des coûts que cela représente. Un autre point important à prendre en compte est la notion de conservation des données ayant servi à une analyse, un modèle ou une restitution. La notion, en particulier dans le secteur assurance, de piste d’audit doit être étudiée compte tenu des exigences réglementaires.

 

Pour aller plus loin

Lire la seconde partie de cette Tribune dans notre prochaine édition du 13 juin