Armes de destruction mathématiques (ADM) : les algorithmes comme pourvoyeurs de discrimination et réelles bombes à retardement

Cathy O’Neil est une mathématicienne avec une expérience en finance. Ancienne analyste à Wall Street, elle a étudié et programmé de nombreux outils permettant l’optimisation (de marchés financiers, des choix sociétaux, des êtres humains…). Avec Algorithmes, la bombe à retardement, elle nous livre une analyse personnelle de l’évolution et des conséquences des outils mathématiques de plus en plus nombreux dans notre société. Un livre intéressant, interpellant et sonnant comme une alarme que l’on ne peut omettre d’entendre.

Qu’est-ce qui fait que vous êtes admis dans une Université américaine ou que Parcours Sup (France) vous autorise l’inscription dans une haute école particulière? Qu’est ce qui fait que votre prêt bancaire sera autorisé, que votre CV recevra une suite et que vous serez reçu pour un entretien individualisé? Ou, au contraire, que tout investissement vous sera refusé, que vos candidatures resteront sans réponse? Les algorithmes évidemment.

Sous couvert de rendement et d’efficacité (trier 2000 CV pour un poste vacant nécessite beaucoup de personnels et de temps… Si un outil mathématique pouvait déjà en écarter 90%, il faciliterait la tâche de la société qui recrute et lui ferait gagner beaucoup d’argent), les algorithmes, programmes informatiques, se sont immiscés dans pratiquement tous les secteurs de notre existence humaine. Pour la plupart employés afin de gagner du temps, de l’argent et des ressources humains, ils ont un objectif louable. Mais Cathy O’Neil nous explique avec brio comment ils sont devenus des pourvoyeurs de discrimination.

Pour fonctionner, un programme mathématique a besoin de données. Ces données sont de plus en plus nombreuses. Ainsi, pour prédire le résultat d’un match de base-ball, on dispose de tout une série de statistiques sur les joueurs, les équipes, la météo…. Et le modèle mathématique peut tirer une conclusion. Si celle-ci est erronée, un analyste rentrera cette erreur dans le modèle, programmera de nouveaux paramètres, c’est le feedback indispensable pour qu’un modèle fonctionne.

Mais qu’en est-il pour mesurer le degré de risque que vous représentez à la demande d’un prêt? On va vérifier si vous avez des dettes, combien vous gagnez… mais ce n’est pas suffisant. Votre code postal, votre ethnie et vos amis (s’ils sont ou non bon payeurs) vont également rentrer en ligne de compte. Ainsi, si vous avez le malheur d’habiter dans un quartier particulièrement défavorisé votre prêt pourra être refusé. C’est un peu obscur, tous les paramètres ne sont pas connus mais, finalement, cela remplace un peu le banquier qui choisissait à la tête du client.

Mais si votre évaluation dans la capacité à rembourser vos dettes devient le critère primordial pour vous octroyer un poste dans une entreprise… Quel lien me direz-vous? Certains algorithmes de recrutement choisissent comme critère primordial votre capacité à honorer vos dettes car elles rendent compte de votre ponctualité et du respect de vos engagements (quid d’une situation familiale exceptionnelle, d’une maladie grave ou d’une dépression qui vous empêcherait momentanément à honorer vos crédits). C’est déjà la réalité aux Etats-Unis et aussi en Europe, on peut le supposer.

Au travers des diverses étapes clefs d’une vie (entrée à l’université, recherche d’un job, demande de crédit, contrôle policier…) Cathy O’Neil nous ouvre les yeux sur l’implication de ces algorithmes et des prémices de l’intelligence artificielle. Les conséquences sont nombreuses et souvent désastreuses en accentuant encore les inégalités : la pauvreté se renforce.

Une analyse pertinente, partiale et argumentée de l’évolution de notre société dans laquelle le plus grand nombre est confronté à décisions prises par des machines aux programmes obscures et dont les nantis ont le privilège de bénéficier de décisions humaines.

Auteure : Cathy O’Neil

Titre : Algorithmes, la bombe à retardement

Editions : Les Arènes

Nbre de pages : 341 pages

Date de sortie : le 07/11/2018

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.