Le Big data pour lutter contre l’évasion fiscale

0
1753

 

Au moment où les internautes s’apprêtent à consulter les détails sur les dizaines de millions de fichiers relatifs au «Panama Papers», le plus vaste scandale d’évasion fiscale jamais révélé au monde, les technologies Big Data promettent de détenir la clé pour résoudre cette criminalité économique en apportant au monde financier des solutions en temps réel.

 

(CIO Mag) – Considéré comme l’or noir du XIXème siècle, le marché mondial des technologies Big Data devrait atteindre 48,6 milliards de dollars à l’horizon 2019. Aujourd’hui, c’est le secteur financier qui mène le peloton de tête, devant le secteur industriel, dans les investissements pour venir à bout de la criminalité économique qui sévit depuis maintenant plusieurs décennies comme en témoigne aujourd’hui l’affaire « Panama Papers ». Même si l’accroissement des besoins spécifiques reste un fait réel, il n’en demeure pas moins que les compétences, types Data Scientists, manquent cruellement pour relever les multiples défis à venir. Le Big data fournit des outils formidables pour la lutte contre les fraudes et l’amélioration de la sécurité. « Ce sont des outils précieux que les banques doivent impérativement mettre en place pour respecter leurs obligations réglementaires et réduire leurs coûts liés aux fraudes fiscales », prévient Abdoul Seck, Responsable BI et Big data chez Jems datafactory, une entreprise de conseil et d’intégration de solutions décisionnelles.

 

Big data, analyse prédictive des événements

En effet, depuis plus d’une décennie, les banques sont confrontées à la multiplication des fraudes que l’on peut classifier en trois catégories: les fraudes externes au secteur, les fraudes internes et les fraudes managériales. En intégrant les technologies Big Data dans leur processus, les entreprises financières seront désormais outillées pour détecter en temps réel des pratiques dites anormales. En fournissant un ensemble d’outils capable de contrecarrer la fraude et la stopper, les technologies Big data permettent d’anticiper et de réagir en quasi temps réel.  « On peut typiquement mettre en place des outils qui permettent d’alerter sur l’utilisation simultanée d’une carte bancaire à Paris  et à Londres sur les mêmes tranches horaires », explique Abdoul Seck. La banque pourra ainsi agir en faisant opposition sur ces opérations supposées douteuses en temps réel alors qu’il en fallait plusieurs heures voire plusieurs jours pour les anciens systèmes.

Là où les systèmes relationnels traditionnels mettaient plusieurs heures voire plusieurs jours pour détecter et analyser une anomalie car il fallait attendre la nuit lors du traitement des données collectées dans la journée pour s’apercevoir de ces anomalies, il en faut quelques millisecondes pour le faire avec les outils du Big Data.

Ce mouvement issu de l’écosystème Hadoop permet d’exploiter au mieux la montée en puissance des volumes de données sans cesse croissants.  Socle de tout projet de Big Data, le stockage des données revêt une dimension stratégique puisque de son organisation initiale et de sa qualité dépendront la pertinence et l’efficacité de leur exploitation. On parle de notion de temps réel qui permet de détecter et/ou prédire des événements liés à la fraude financière. C’est l’analyse prédictive des événements qui, sous sa nouvelle forme, donne des informations plus affinées. « Là où les systèmes relationnels traditionnels mettaient plusieurs heures voire plusieurs jours pour détecter et analyser une anomalie car il fallait attendre la nuit lors du traitement des données collectées dans la journée pour s’apercevoir de ces anomalies, il en faut quelques millisecondes pour le faire avec les outils du Big Data. Ce décalage entre le moment de la détection de la fraude, son analyse et son traitement fait la différence », explique Abdoul Seck.

L’une des forces majeures des technologies Big Data repose sur une grande puissance de calcul jamais égalée adossée à la grande capacité de stockage disponible. L’autre bénéfice du Big data réside dans sa capacité à traiter les sources des données hétérogènes (structurées, non structurées, semi structurées) en quasi temps réel. Dotés de bases de données nouvelle génération plus agiles, les outils du Big Data se prêtent mieux au traitement des méga-données puisque ce sont des milliards de sources de données qui s’articulent dans le maelstrom final. « Une base de données relationnelle classique est incapable de gérer tout cela », précise Abdou Seck. Les outils de l’écosystème Hadoop fonctionnent pour la plupart du temps en mémoire d’où la notion « in memory », et sollicite moins d’espace disque qu’avant et permet d’accélérer les temps de traitement des requêtes.

 

Suis-je éligible au Big data ?

C’est certainement une question que tout DSI s’est déjà posée un jour. Pour Abdoul Seck : « La volumétrie des données à traiter constitue un critère important avant d’entamer une réflexion sur les conditions d’éligibilité vers la démarche Big data mais pas seulement », prévient-il.  Pour certains, le Big Data commence à partir du seuil pour lequel le volume de données devient difficile à gérer dans une solution de base données classique. Toutefois, les avancées technologiques nous permettent toujours de repousser ce seuil de plus en plus loin sans remettre en cause les standards des DSI, et c’est pourquoi l’aspect volume en tant que tel n’est pas suffisant pour caractériser une approche « Big Data ». Il y a ensuite la question de l’hétérogénéité et la variété des données à traiter et ou encore l’interaction avec les usagers ou utilisateurs. Pour répondre à la question de l’éligibilité au Big Data, certains spécialistes associent le « Big Data » au 3V : Volume, Vélocité et Variété. Le Big Data nécessite donc également une notion temporelle forte associée à de gros volumes. C’est à dire, être capable de capturer une masse de données mobile pour pouvoir soit réagir quasiment en temps réel face à un évènement ou pouvoir le revisiter ultérieurement avec un autre angle de vue. Quand à la variété, le Big Data va adresser non seulement les données structurées mais pas seulement. L’objectif essentiel est justement de pouvoir trouver de la valeur ajoutée dans l’ensemble des données accessibles à une entreprise.

 

Former une nouvelle génération de spécialistes Big data

Toutes ces évolutions technologies mises bout à bout permettent de réagir en temps réel pour détecter des tentatives de fraudes fiscales ou tout type d’événement anormal. La mise en place d’ensemble de ces outils sont aujourd’hui à la disposition des Etats, des compagnies d’assurances, les banques commerciales, l’industrie aussi en grande partie. L’utilisation des outils types machines-Learning  permet de corréler et tracer mais d’auto-apprendre des anomalies. Même si les spécialistes de la BI existent dans plusieurs grandes entreprises, il n’en demeure pas moins que les profils types de data scientists sont devenus une denrée rare d’où la nécessité d’accentuer des cycles de formation dédiés au Big data. A cette rareté de compétence vient s’ajouter le manque de maitrise des processus nécessaires à la mise en place d’une vraie démarche Big data connue comme étant des projets d’une grande envergure. On peut envisager la reconversion des profils spécialisés dans les statistiques, l’analyse prédictive mais il urge de former une nouvelle génération de spécialistes Big data. En attendant, pour pallier le manque de ressources, l’externalisation reste l’option la plus récurrente.  Pour Abdoul Seck : « La mise en place des outils de Big data nécessite au préalable une transformation des SI existants ». Même si le pilotage de ces nouveaux environnements reste dans le giron du DSI, il est clair que les métiers en restent les principaux bénéficiaires. Toutefois, si le DSI ne prend pas l’initiative d’introduire le processus, cette dernière peut émaner des métiers. Mais la concertation reste de mise pour réussir une plus value et un retour sur investissement.

 

Mohamadou DIALLO

 

– Data : l’or noir du 21ème siècle surtout pour l’Afrique

Le Big data pourrait être d’un apport considérable pour le continent africain. A marche forcée, le processus de numérisation des administrations est devenu irréversible pour faciliter l’accès à l’information. Au-delà de le l’accès à l’information, il y a aussi la lutte contre la mal-gouvernance. « Si l’information est bien traitée et bien partagée, son accès transparent devient alors une formidable avancée dans la lutte contre la corruption et participe à promouvoir l’attrait du pays aux capitaux étrangers pour la création de richesse ». Pour toutes ces raisons, la donnée va apporter un important avantage concurrentiel aux pays africains. Pour les citoyens, l’accès à des interfaces à distance pour faire des transactions en ligne, obtenir des papiers administratifs permettrait de gagner du temps, de l’argent. Plusieurs secteurs pourraient sortir de l’informel. L’avantage pour l’Etat, c’est d’avoir des entrées plus confortables en termes de taxes. Il existe d’importantes applications dans les domaines de la santé, du transport. Il existe de plus en plus d’entreprises qui ne vivent que de la donnée, pour lesquelles tout leur business model tourne autour de la donnée. Toutes les grandes entreprises occidentales ont compris les enjeux en créant des unités spécialement dédiées au traitement de la donnée. Les jeunes africains devront aussi s’orienter vers ce créneau avec le développement d’applications dédiées.

 

MD

LAISSER UN COMMENTAIRE

Please enter your comment!
Please enter your name here