IA et Big Data

Big data et IA au service de la finance au salon @BigDataparis

salon big data 2019À l’occasion du salon Big Data qui a lieu à Paris les 11 et 12 mars Prochain, et dont Visionary Marketing est partenaire média à nouveau cette année, nous avons pu nous entretenir avec Mikael Le Bars, expert en Intelligence Artificielle chez 89C3R. 

89C3R c’est la « digital factory » de Natixis.
Cette entité située au coeur de la DSI regroupe diverses équipes d’experts spécialisées dans différents domaines notamment de la blockchain, l’intelligence artificielle, le big data ou encore la robotique. Ce laboratoire localisé au coeur de Paris a pour rôle d’accompagner les métiers de la banque et de l’assurance dans les solutions liées à la transformation digitale.

Mikael Le Bars fait partie de l’équipe Intelligence Artificielle & Big Data de 89C3R. Ses missions portent notamment sur l’exploitation des data lakes de Natixis et du Groupe BPCE.

Le modèle sur lequel Mikael et l’équipe BGC Financements travaillent depuis fin novembre concerne la gestion des financements aux entreprises. Il est pensé comme une aide à la gestion plutôt qu’un module autonome et devra permettre d’assister les équipes dans la prise de décision.

Cette assistance se matérialise dans l’anticipation et la détection les actions qui mériteraient d’être entreprises en priorité. Afin de s’y retrouver dans la volumétrie de dossiers, cet algorithme devra permettre de mettre en avant les dossiers à gérer en priorité, dès le début de chaque mois, via une visualisation sous forme de calendrier avec des journée colorée en fonction du nombre de dossiers qui nécessitent une attention particulière.

Comment conçoit-on un algorithme comme celui-là ?

La conception d’un tel algorithme repose sur beaucoup d’itérations, c’est-à-dire de répétitions du processus, notamment pour s’assurer de bien faire le lien entre les données, le modèle et le processus de gestion.

Salon Big Data 2019
Les bureaux de 89C3 lors de notre visite

La première étape a consisté à décrire et organiser la base de données en fonction des besoins du projet. Des modèles ont été réalisés à partir des data sets, et l’étude des premiers résultats a permis de vérifier la pertinence des variables mises en avant par le modèle. Il a fallu réitérer plusieurs fois l’exercice pour éliminer certaines variables.

Parallèlement il a fallu adapter l’environnement big data pour pouvoir utiliser les librairies nécessaires, tout en tenant compte des contraintes de sécurité inhérentes au domaine bancaire.

Enfin, une collaboration avec la société Indexima a permis de faciliter la visualisation de ces données en environnement Big Data.

Quelle utilisation en milieu bancaire ?

salon big data 2019Pour que les données soient pleinement exploitables, il est ensuite nécessaire d’allier cet algorithme à des outils de data visualisation.

Cet algorithme sera utilisé au travers de la solution de visualisation Tableau. On peut imaginer que si des utilisateurs voulaient utiliser le modèle dans un contexte autre que cette visualisation, les équipes pourraient le mettre à disposition via une API .

En l’état actuel, l’algorithme brasse un volume considérable de données et l’objectif du modèle est de pouvoir, avec ce logiciel de visualisation, faire abstraction de toutes ces données brutes et fournir une synthèse qui donne, d’un rapide coup d’œil, une vision des dossiers à gérer.

En fin de compte, seul l’expert du back-office sera à même de juger si ce qui a été prédit par le modèle était effectivement pertinent ou non. On ne peut en effet pas être sûr à 100% que la prédiction soit correcte, l’avis de l’expert sera toujours primordial.

Cet algorithme a-t-il des opportunités d’auto apprentissage ?

Pour l’instant le modèle a été pensé comme une brique dans un ensemble d’outils : outils de modélisation, de visualisation du modèle, l’environnement big data etc.

Actuellement, il est en phase d’expérimentation. C’est pourquoi, la mise à jour du modèle n’est pas automatisée, mais il est concevable dans le futur de développer ses capacités d’apprentissage continu.

L’objectif du projet, en plus de permettre à l’équipe d’évoluer en data science, est de montrer qu’il est possible d’utiliser des données du back-office pour aller au-delà de la simple business intelligence et pour aller vers de la modélisation data-science, qui permette de passer à un modèle déductif, basé sur les données du passé, à un modèle prédictif.

Si ce modèle se révèle pertinent, d’autres développements possibles seront certainement réalisés en collaboration avec les métiers.

Mikael sera présent au salon big data les 11 et 12 mars prochain au palais des congrès et animera une conférence sur le thème de la data science pour optimiser les activités de back office, ne ratez pas cet événement qui vous permettra d’approfondir ce sujet passionnant.

a

Ernest Margerie

Ernest a été consultant junior en Web Marketing chez Visionary Marketing en 2018 et 2019. Il est diplômé du master en digital business de Paris School of Business (PSB)
Bouton retour en haut de la page