Brèves

Big Data : une réalité pour les Banques

Big Data

Depuis toujours, les Banques accumulent les données, et ce, pour de multiples raisons, très souvent liées au réglementaire.

Les institutions financières ont mis en place de nombreux systèmes et bases de données spécialisés sur des activités ou domaines spécifiques afin d’assurer une performance en relation avec leurs besoins.

Or, le marché évolue, au-delà des archivages, l’évolution des usages rend primordial l’accès et le traitement de ces énormes volumes. D’une société de consommation (Production de biens, Publicité, Vente), la société s’oriente vers l’offre (identification des besoins clients, réponse précise et mieux disante).

Le « pétrole » de cette société d’offre, c’est la connaissance : des clients, des marchés, des flux, des comportements. Cette connaissance ne se base plus uniquement sur l’analyse de panels, qui permettent de dégager des tendances « mass market », mais sur toutes les données possibles. Dans chaque information peut se cacher la nouvelle offre, le nouveau segment, le nouveau point de vue qui va faire émerger l’innovation de demain. La gestion de ces données, que les acteurs stockent en masse, c’est le BIG DATA et ses enjeux : Performance, Scalabilité, Prédictibilité, Efficience.

Emergence du Big Data

Face à l’explosion du volume d’information, le Big Data est la mise en œuvre de solutions considérées comme des alternatives aux solutions historiques de bases de données et d’analyse (Bases de données relationnelles orientées lignes, plateformes de Business Intelligence relationnelle…).

Confrontés à des enjeux de gros volumes, les grands acteurs de l’internet (Google, Yahoo, Facebook, Amazon) ont été les premiers à développer, déployer, valoriser ce type de technologies et à les utiliser de façon commerciale. Une des technologies les plus connues aujourd’hui, Hadoop, fût fortement inspirée par des processus mis en place par Google ou Yahoo pour administrer et exploiter le volume exponentiel d’informations recueillies.

Le Big Data s’appuie sur une famille d’outils répondant à une triple problématique, les « fameux » 3V : Volume, Vitesse et Variété des données. En fonction du volume global, de la vitesse à laquelle ces données sont générées, stockées et analysées ainsi que de leur hétérogénéité, les méthodes et outils diffèrent.

Banques : Ruée sur le Big Data

L’association « Big Data » et « Banque » semble naturelle. La réalité est en fait assez complexe.

Les Banques se lancent aujourd’hui dans une réflexion d’implémentation de solutions Big Data afin de repousser plusieurs limites de leurs technologies actuelles notamment relatives aux performances et à l’exploitabilité du volume d’information traité quotidiennement.

Les promesses des technologies Big Data peuvent laisser rêveur : un système de stockage distribué et « scalable by design » sur une infrastructure serveurs à coût maîtrisé, des processus de calculs distribués afin de traiter plus rapidement un très vaste volume, potentiellement hétérogène, de données.

Cette technologie n’est pas pour autant adaptée à tous les contextes et nécessite une bonne stratégie afin d’être exploitée. Son usage induit une compréhension et des schémas différents des technologies relationnelles.

Pour les institutions bancaires, d’autres contraintes viennent s’ajouter, en particulier le besoin de garantir l’exhaustivité des données pour un calcul, la capacité de rejouer les calculs, des contraintes que n’avaient pas les GAFA et que les solutions ne garantissaient pas en standard.
Certains processus doivent être mis en place afin d’assurer une utilisation de la dernière version de l’information lors d’opérations, spécialement pour les systèmes temps réels.

Certaines solutions telles HBASE et Cassandra proposent un modèle ACID (atomicity, consistency, isolation, durability) transactionnel, tandis que d’autres comme Scaled Risk viennent s’ajouter aux processus garantissant la fiabilité au niveau de la donnée unitaire.

Pour relever ces défis : des solutions simples, une bonne gouvernance et une implémentation qui prend en compte ces enjeux. Les banques tirent déjà avantage de cette technologie en constante évolution.

Banques & Big Data : Où commencer et pourquoi ?

Aujourd’hui, la normalisation des projets Big Data permet de répondre à trois problématiques majeures :

  • Besoins d’Entrepôt de Transactions,
  • Besoins de connaissance client (vision 360, KYC…),
  • Sujets de Conformité Réglementaire.

La première tendance : stockage et traitement des données (pour les BFI)

Étant donné le volume des trades et de données de marché associées, les solutions de Big Data offrent une intégration plus rapide d’un volume important de données grâce à leur systèmes distribués permettant plusieurs points d’intégration dans le datalake (façon différente de stockage de la donnée par lacs de stockages VS Entrepôts de données) évitant ainsi l’encombrement d’un seul point réseau.

Une fois les données intégrées, les processus de transformation et de normalisation tirent avantage du processus de calcul distribué et permettent d’atteindre des performances plus rapides que des technologies traditionnelles plus centralisées dans certains contextes (en tout état de cause, dans les contextes de très gros volumes de données).

Nous constatons des gains de performance de 5 à 100 fois plus rapides dans un environnement Big Data lors de calculs en batch sur plus d’un milliard de lignes de données. Comme la technologie est « scalable » avec des centres de données pouvant atteindre des centaines voire des milliers de machines, il est possible d’assurer la performance sur un volume de données croissant, et ce, en y ajoutant plus de machines et donc plus de pouvoir de calcul.

Finalement, avec la philosophie de recopie des données, aucune donnée originale ne devrait statistiquement être perdue.

La donnée originale peut être stockée dans un schéma de données d’intégration et être exposée via de multiples schémas de transformation à la suite des divers processus de normalisation avant d’être interfacée avec les différents logiciels finaux.

Deuxième tendance : la connaissance du client

L’avènement du Big Data permet aux banques de maximiser le bénéfice associé aux informations recueillies aux travers des différentes transactions. Les banques ont en effet légitimement accès à une panoplie d’informations leur permettant de connaître les habitudes d’achats, les points de consommation, les volumes et les tendances.

Au travers de ces données, il est possible de discerner les comportements des clients et leurs besoins afin de leur recommander des produits financiers plus adaptés, ou encore de détecter des comportements à risque pour la banque et d’aviser en fonction.

La notion de connaissance client n’est pas nouvelle, mais le Big Data permet aux banques de collecter et de traiter plus d’informations concernant leurs clients, dans plusieurs systèmes et bases de données diverses (voire extérieures au SI).

Ceci leur offre la possibilité d’avoir accès à toute l’information nécessaire afin de prendre une décision.

Troisième tendance : les problématiques réglementaires et anti-fraude au sein des banques.

En effet, tout comme la connaissance client, grâce à l’accès unifié à toutes les données de transactions, aux données de marché, aux gains de performance de calcul, le Big Data permet de normaliser et de corréler ces données avec des données hétérogènes telles des logs, des conversations et des documents. Ceci permet aux banques de simuler et de mettre en place plus de scénarios de détection plus rapidement et de couvrir plus de sources d’information dans leur processus de détection.

Certains éditeurs de logiciels de détection de fraude ont intégré le Big Data dans leur stratégie afin d’étendre leurs modèles de détection et de corréler un plus grand volume d’informations. Outre ces logiciels de détection spécialisés, d’autres solutions de Machine Learning et d’analyse prédictive sont aussi  utilisées avec le Big Data pour discerner de nouveaux  modèles de fraude et réaliser de l’analyse rétrospective plus approfondie afin de découvrir des cas de fraude auparavant cachés.

Banque & Big Data: Et demain ?

La technologie Big Data est en plein essor et évolue rapidement, poussée par des investissements importants.

La percée récente du Big Data dans les entreprises plus traditionnelles incite en effet les acteurs/éditeurs de ce domaine technologique à intégrer des modèles de sécurité et d’habilitation qui répondront aux besoins de cette nouvelle clientèle.

L’appétence à ce domaine technologique avec de nouveaux clients, usages, publics, augmente.

Ainsi se développent de nouveaux métiers ou des métiers en transformation :

  • Le data scientist, plus proche du chercheur que de l’ingénieur ;
  • Le Marketing devra se familiariser avec les modèles mathématiques et les possibilités techniques et orienter le questionnement sur les données afin d’aller plus vite vers leur valeur ;
  • Les informaticiens devront augmenter l’interopérabilité, l’urbanisation afin que ces données aient une espérance de vie suffisante.

Les choses évoluent vite, si vite que bien malin celui qui ne fera que les bons choix.

Mais il s’agit du pari de ce modèle de société : « fail fast, fail often », mieux vaut s’aguerrir, au risque de l’échec, et être compétent quand il faudra, qu’attendre et regarder passer cette transformation.

Auteurs :
Laetitia Halfon – Directrice commercial BU Capital Market
Julien Beaumont – Directeur de projets
Charles Ferguson – Consultant


-- Télécharger Big Data : une réalité pour les Banques en PDF --


Laissez un commentaire