Le grand fossé de l’IA

  • Par CIO MAG
  • 21 octobre 2021
  • 0
  • 1315 Vues

Ce titre, emprunté à un célèbre album de bandes dessinées pourrait s’appliquer à la transition digitale. Chaque jour, un fossé se creuse dans nos communautés (pays, régions, entreprises, familles) avec l’adoption progressive de processus digitalisés et de prises de décision de plus en plus nombreuses fondées sur des algorithmes. Les premières victimes, qui représentent la moitié de la population mondiale, sont les femmes, peu représentées dans les métiers de la data. Pourquoi une telle situation de risque autour de l’IA ? Quelles en sont les origines et manifestations ? Comment peut-on aujourd’hui changer la donne? Voici quelques pistes de réflexion.

Comprendre l’étendue de la chaîne analytique / IA

Pour comprendre l’ampleur du gouffre qui se creuse, revenons tout d’abord à ce qu’est un processus d’IA et évaluons l’étendue de ses ramifications. Nous allons voir que ce dernier commence bien avant l’algorithme et qu’il passe par plusieurs grandes étapes.

  • Tout débute par une question, un problème à résoudre. On ne fait pas d’analytique et encore moins d’IA sans but.
  • Une fois le challenge cerné, nous allons devoir choisir les données pertinentes pour son traitement.
  • La contrainte de la collecte va ensuite se poser car toutes les informations requises ne seront pas forcément techniquement, administrativement ou légalement disponibles.
  • La phase de stockage et de préparation des données va nous permettre de mettre les données en cohérence et dans les formats utilisables.
  • La phase d’analyse au cours de laquelle nous allons assembler, comparer, joindre, corréler, classer nos données afin de trouver les réponses aux questions initialement posées.
  • Nos conclusions seront ensuite présentées de manière claire et espérons-le convaincante.
  • Une mise en pratique qui apportera le vrai impact à notre travail.

Nous voyons qu’à chaque étape, l’humain, l’algorithme ou la donnée vont être sollicités et que chacun de ces éléments sera à la fois un contributeur de richesse et de performance mais aussi à l’origine de nombreux problèmes.

Un chemin jonché de pièges et de risques

Le premier facteur de risque et certainement le plus critique est le facteur humain. Dès la formulation de la question, nous allons faire le jeu de nos biais. Nos limitations en compétences techniques ou nos biais de sélection vont exclure des données clés de nos collectes de data. De même, la manière avec laquelle nous allons mettre en harmonie ces informations collectées dans nos bases de données et mener nos analyses vont imprimer dans nos travaux une partie de nos habitudes, cultures ou pratiques politiques. Si le choix d’une visualisation ou d’un algorithme peut ouvrir la voie à une appréciation erronée d’une situation, ce sont surtout les données injectées qui vont avoir une influence sur les résultats : les calculs algorithmes ne se tromperont pas, ce sont les données qui rendront les résultats incohérents et non représentatifs de la réalité. Enfin, la dernière étape de communication des résultats qui pourra être le théâtre de tous les non-dits, méprises, méfiances ou incompréhensions, pourra à elle seule ruiner tous les efforts analytiques.

L’élément data va jouer un rôle prépondérant également. Outre la qualité de la donnée collectée qui ne sera pas toujours garantie, c’est sa densité et sa représentativité du problème qui posera problème. Un logiciel d’analyse ou un algorithme top niveau ne pourront rien contre une donnée parcellaire, collectées sur des durées trop courtes, échantillonnées à partir des sources disponibles et non des sources pertinentes.

Les facteurs technologiques viendront ajouter une friction supplémentaire en limitant les capacités de vraiment traiter un problème avec les volumes ou la diversité des données requis. En se contentant d’approches connues, traditionnelles mais intrinsèquement limitantes (comme les traitements sous tableurs), nous nous coupons de formidables opportunités d’analyse.

La sous-représentation des femmes accentue les risques d’une data biaisée, non pertinente et peu éthique

Aujourd’hui, des dynamiques se sont installées dans nos organisations et contribuent à l’élargissement des inégalités à tous les niveaux de la chaîne analytique du fait du manque de représentation des femmes.

La liste qui suit présente quelques-unes les nombreuses faiblesses de processus analytiques ou IA exclusifs.

  • Les questions seront dès le départ orientées par ceux qui les posent. En l’absence de femmes ou d’un groupe représentatif de l’environnement,  on passe à côté de tout un champ de perceptions et d’hypothèses.
  • Le constat d’une situation et les questions/challenges identifiés par un groupe restreint et masculin manquent de saisir les subtilités et l’environnement du problème de manière holistique.
  • Les jeux de données où les éléments de la majorité décideuse sont surreprésentés biaisent les algorithmes.
  • La plupart des biais d’analyse tels que les biais d’ancrage, de confirmation, de conservatisme pour n’en citer que quelques-uns sont renforcés par l’effet de groupe sans diversité.
  • Les résistances au changement et à l’application des conclusions analytiques sont accrues dans une population peu formée ou impliquée.
  • Le cycle s’auto-entretient avec le déficit structurel de femmes invitées à la table des discussions et projets data.

Ce constat fait pour les femmes, s’étend d’ailleurs à toutes les minorités ou communautés exclues de ces mécaniques.

La clé de la promotion, de la formation et de la recherche

Aujourd’hui, nous pouvons tous contribuer à rebattre les cartes. L’un des leviers les plus forts est l’exposition et la formation aux approches analytiques des populations sous-représentées dans le domaine digital.

Cela fait partie des missions du Fisher Center de Berkeley et l’Alliance pour l’IA inclusive. En offrant des formations de qualité, certifiantes, grâce au financement d’entreprises partenaires qui forment leurs propres employés avec nous, nous donnons le pouvoir à nos participants de comprendre la data et de gagner en autonomie dans leurs analyses. En présentant des personnalités inspirantes, nous leur donnons des repères et l’accès à un réseau global de praticiens et d’experts qui croient en eux. C’est enfin ce que nous célébrons chaque année au Berkeley World Business Analytics Awards.

N’ayons plus peur des algorithmes, qu’il faudrait dresser comme on dompterait des monstres. Des lignes de codes et des formules mathématiques inertes ne feront jamais de mal à personne. Ce sont nos biais, nos intentions (mauvaises ou faussement bonnes) et la qualité de nos data qu’il faut craindre. C’est la concentration de leur maîtrise et de leur compréhension dans les mains de minorités. C’est la compréhension et la traçabilité des résultats IA complexes tels que les réseaux de neurones. Ces risques, nous ne pourrons les combattre que si nous nous formons à ces nouvelles disciplines digitales en tenant compte des problématiques non seulement techniques et data mais également humaines. Nous sommes les premiers garant d’une IA éthique, respectueuse et sage.

Analyse rédigée par Gauthier Vasseur

Gauthier Vasseur a commencé sa carrière en audit, finance d’entreprise et trésorerie, et a relevé de nombreuses missions avec ses équipes chez Ernst & Young et Remy Cointreau : mise en conformité à de nouvelles normes internationales comptables, passage à l’an 2000, à l’euro, gestion de crise, agilité et performance de processus d’analyse et de reporting. Mais c’est la maîtrise de la data qui a créé un déclic, lorsque, au début des années 2000, il a compris que l’on pouvait travailler plus vite et surtout plus justement grâce à des techniques simples. Il se lance alors avec l’AFTE, l’Association française des trésoriers d’entreprises, dans le développement de cours et de conférences sur les systèmes d’information en Finance. En 2004, il bascule dans le monde de la technologie comme directeur marketing produit pour les solutions de gestion de  la performance chez Hyperion en Silicon Valley, racheté plus tard par Oracle ; en 2007.

Plus tard, il devient directeur de la gestion de la data financière chez Google ; vice-président des solutions data de TriNet, à la veille de son entrée en Bourse ; et enfin Chief Operating Officer de la filiale américaine de Semarchy, un leader en solution de gestion de données. Le dernier tournant de sa carrière est amorcé dès 2008 avec ses premiers cours data à l’Université de Stanford. C’est ainsi qu’il s’engage définitivement dans la voie de la formation et crée en 2017 Data Wise Academy à Menlo Park en Californie. En 2018, il rejoint l’Université de Berkeley et prend la direction du Fisher Center for Business Analytics à la Haas School of Business. Il se consacre désormais à la recherche et à l’enseignement académique et professionnel : projets entrepreneuriaux avec Le Pont, un leader de la formation Data/IA en France, missions d’inclusion et d’accès à la formation, et création en 2018 de la Berkeley Alliance for Inclusive AI dont il est le coprésident avec Nolwenn Godard. Gauthier Vasseur est aussi l’auteur de “Devenez un Data Pionnier”, un ouvrage de référence pour progresser en analytique sur de bonnes bases, en tête des ventes nouveautés Amazon (www.devenezundatapionnier.com).

Pin It on Pinterest