Intelligence artificielle : penser éthique avant développement

Belona Sonna est spécialiste des solutions d’Intelligence artificielle dans la santé. Cette Camerounaise, diplômée en Génie logiciel, a été plusieurs fois primée en innovation technologique. Elle explique, pour Cio Mag, pourquoi et comment devrait s’appliquer l’éthique dans le développement des solutions.  

(CIO Mag) – L’histoire de Joy Buolamwini, militante numérique américano-ghanéenne, a fait le tour du monde. Cette femme noire a brisé la légende de la neutralité des machines lorsqu’elle a prouvé la discrimination des systèmes de reconnaissances faciale des solutions d’IBM, de Microsoft et d’autres. Elle a démontré qu’ils fonctionnaient mieux sur les hommes que sur les femmes, et avec plus de précisions sur les peaux claires que sur les peaux foncées.    

Celle qui, désormais, galvanise un mouvement croissant de dénonciation des conséquences sociales de l’Intelligence artificielle (IA) en a surtout posé les limites en termes de discriminations.  Ces « biais » sont bien connus dans ce domaine et ils traduisent la déviance des résultats et la discrimination des personnes en fonction de l’origine, du sexe, du genre et d’autres caractéristiques.    

Ces situations posent, selon les experts, la question de l’éthique. « Il faut y penser avant de créer des solutions, afin de ne pas heurter les personnes », commente Belona Sonna, spécialiste des solutions d’Intelligence artificielle. « L’éthique de l’intelligence artificielle » est en effet de plus en plus questionnée.  Mais de quoi s’agit-il concrètement ? « Il s’agit de réguler l’emploi de l’IA en s’assurant que les solutions basées sur cette technologie ne sont pas néfastes pour l’être humain », explique l’experte. Elle ajoute : « Il faut créer des règles pour que l’Intelligence artificielle ne puisse causer aucun tort. Et s’assurer de l’usage des bonnes métriques, lors du développement des solutions. Comment ? En ayant un échantillon représentatif de la situation actuelle et en empêchant les personnes de transposer leurs croyances ou leurs biais dans la solution. Cela doit s’appliquer tout au long du process de développement d’une solution basée sur l’IA ».  

Ethique et impacts

Belona Sonna considère que tous les pays africains, qui ne sont pas encore très avancés dans le domaine, pourraient d’ores et déjà réfléchir à l’application de l’éthique avant de se lancer dans le développement des solutions. Ils s’éviteraient ainsi de devoir réparer d’éventuels impacts.  « Les Occidentaux ont longtemps utilisé l’IA sans tenir compte de l’éthique et de l’impact négatif que cela pourrait causer aux humains. Ils se rendent à présent compte des torts causés à autrui. C’est la raison pour laquelle les discours et les domaines de la recherche se réapproprient l’éthique. On cherche ainsi à ce que les procès soient plus appropriés », affirme-t-elle.  Pour y parvenir, il est ainsi nécessaire de placer l’humain au centre de tout développement.  

La définition de l’IA étant d’apprendre aux ordinateurs à raisonner comme le cerveau humain, alors « l’Intelligence artificielle n’est que l’automatisation de la façon de penser d’une personne ou d’un groupe de personnes ». Or, cette technologie est exposée à plusieurs sources de biais (le fait que le résultat ne soit pas neutre, loyal ou équitable).  « Les données utilisées pour la conception des solutions d’IA reflètent un environnement réel dans notre société. L’application s’effectue donc sans neutralité et résulte des mœurs, des croyances et d’autres biais, lesquels sont ensuite transférés dans ces solutions technologiques », précise Belona Sonna.   

Soucieuse de cette relation humain-machine, la jeune spécialiste intervient dans plusieurs projets de sorte à évaluer les sources de biais qui pourraient influencer une solution d’IA. En identifiant ces facteurs et en les réduisant considérablement, on pourra alors prétendre à une intelligence artificielle éthique. 

Aurore Bonny 

Pin It on Pinterest