Demystifier les algorithmes - Cairn

11
DÉMYSTIFIER LES ALGORITHMES Gilles Rouet CNRS Éditions | « Hermès, La Revue » 2019/3 n° 85 | pages 21 à 31 ISSN 0767-9513 ISBN 9782271129642 DOI 10.3917/herm.085.0021 Article disponible en ligne à l'adresse : -------------------------------------------------------------------------------------------------------------------- https://www.cairn.info/revue-hermes-la-revue-2019-3-page-21.htm -------------------------------------------------------------------------------------------------------------------- Distribution électronique Cairn.info pour CNRS Éditions. © CNRS Éditions. Tous droits réservés pour tous pays. La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans les limites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de la licence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie, sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit de l'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockage dans une base de données est également interdit. Powered by TCPDF (www.tcpdf.org) © CNRS Éditions | Téléchargé le 24/07/2022 sur www.cairn.info (IP: 65.21.229.84) © CNRS Éditions | Téléchargé le 24/07/2022 sur www.cairn.info (IP: 65.21.229.84)

Transcript of Demystifier les algorithmes - Cairn

DÉMYSTIFIER LES ALGORITHMES

Gilles Rouet

CNRS Éditions | « Hermès, La Revue »

2019/3 n° 85 | pages 21 à 31 ISSN 0767-9513ISBN 9782271129642DOI 10.3917/herm.085.0021

Article disponible en ligne à l'adresse :--------------------------------------------------------------------------------------------------------------------https://www.cairn.info/revue-hermes-la-revue-2019-3-page-21.htm--------------------------------------------------------------------------------------------------------------------

Distribution électronique Cairn.info pour CNRS Éditions.© CNRS Éditions. Tous droits réservés pour tous pays. La reproduction ou représentation de cet article, notamment par photocopie, n'est autorisée que dans leslimites des conditions générales d'utilisation du site ou, le cas échéant, des conditions générales de lalicence souscrite par votre établissement. Toute autre reproduction ou représentation, en tout ou partie,sous quelque forme et de quelque manière que ce soit, est interdite sauf accord préalable et écrit del'éditeur, en dehors des cas prévus par la législation en vigueur en France. Il est précisé que son stockagedans une base de données est également interdit.

Powered by TCPDF (www.tcpdf.org)

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

Gilles RouetPierre-Marie LledoCristina Lindenmeyer et Marie-Pia d’OrthoJamal AtifMarc DugainMichaël OustinoffPaul-Laurent AssounFrançois YvonCharles BerlingJean-Paul Kauffmann

I. Communication et dispositifs

HERMES-85_cs6_pc.indd 21 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

Gilles RouetUniversité de Versailles Saint-Quentin-en-Yvelines

Démystifier les algorithmes

Les algorithmes, des objectifs et des résultats

Les traductions latines, au xiie  siècle, des travaux de Muhammed Ibn Musa al-Khuwârizmî, trois siècles auparavant, sont à l’origine de l’usage des chiffres arabes, empruntés à la culture indienne, et du développement de l’« algèbre » en Europe. Ce scientifique connaît désormais, de facto, une postérité internationale qui dépasse de très loin le monde des mathématiques, car c’est à partir de son nom d’usage latinisé, Al-Khwârizmi, qu’a été formé progressivement le terme « algorithme », pour désigner un « mécanisme réglant le fonctionnement de la pensée organisée et s’explicitant par des représentations analo-gues à celles des mathématiciens1 », comme les méthodes de résolution des équations. D’autres définitions, désor-mais, consacrent l’évolution de l’usage de ce terme, liée évidemment aux changements technologiques, politiques, sociaux, culturels… Pour le Conseil national du numé-rique, commission consultative française créée en 2011 afin d’étudier « en particulier les enjeux et les perspectives de la transition numérique de la société, de l’économie, des organisations, de l’action publique et des territoires2 »,

en « informatique, un algorithme se définit de manière générale par une séquence d’instructions et d’étapes qu’on applique à un ensemble de données afin d’en produire un résultat », donc une série d’opérations ordonnées sur un nombre plus ou moins important de données. Cette défini-tion résume bien l’évolution du terme : le calcul numérique s’opère désormais dans le champ de l’informatique, ce qui démultiplie ses possibilités, et est en mesure de traiter un ensemble gigantesque de données.

L’algorithme constitue un élément essentiel de l’infor-matique. En établissant des « preuves », l’algorithme établit un lien avec les mathématiques, alors que l’informatique ne se définit pas comme une branche particulière des mathé-matiques, mais comme un domaine d’activité scientifique, technique et industriel relatif au traitement automatique de l’information par des machines, avec une branche théo-rique, en particulier la complexité algorithmique, et une branche pratique. Les programmes, les implémentations, la mobilisation de matériel et dispositifs sont des instru-ments au service de l’objectif : obtenir un résultat, qui peut être de différentes natures, correspondre à des besoins ou à des intentions particulières.

Une recette de cuisine peut être considérée comme un algorithme, dans le sens où il s’agit bien d’un ensemble

23HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 23 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

ordonné d’étapes et d’instructions qui mobilise des opé-rations concrètes, des objets, des ingrédients, des données donc. La cuisine industrielle semble ainsi pouvoir se passer de toute intervention humaine… au moins pendant le déroulement de l’algorithme ! Mais cela reste de la cuisine industrielle : l’apprentissage de recettes de génération en génération s’inscrit dans un processus social et culturel. Le résultat de la recette ne dépend pas que de l’application d’un algorithme, mais aussi d’autres facteurs : la qualité et le choix des ingrédients, l’expérience des utilisateurs, les intuitions, les émotions, les approximations. Il est d’ail-leurs aussi possible d’enrichir (« d’augmenter ») un plat issu de la cuisine industrielle. Les paradoxes sorites, comme de nombreuses recherches en neurosciences, incitent à accepter des limites à la modélisation, à relativiser les approches informatiques de la catégorisation : combien de grains de sable faut-il au minimum pour faire un « tas de sable » ? Quel est le poids d’une « pincée de sel » ? Tous les objectifs assignés aux algorithmes peuvent-ils être modé-lisés, s’appuyer sur le traitement de données disponibles ou bien pouvant être compilées ?

Données et usages des algorithmes

La popularité du terme « algorithme » est assez récente et témoigne aussi d’une relative prise de conscience de cette forme d’utilisations des technologies numériques omniprésentes. Le terme semble bien indissociable de « big data », les données traitées, et d’« intelligence artificielle », expression controversée qui induit aussi une définition partagée de l’intelligence. Nous vivons avec des algo-rithmes, au quotidien, indirectement, et les méthodes se sont enrichies progressivement, jusqu’à pouvoir être inté-grées à des démarches conduisant à des décisions. Le calcul numérique et son informatisation, depuis les années 1950, ont aidé des décideurs à choisir les investissements, à accorder ou non des crédits, à optimiser des emplois du

temps, à sélectionner des candidats, etc., dans les domaines privés et publics. Pour autant, la situation actuelle n’est pas seulement un changement d’échelle des possibilités de ces dispositifs : il s’agit aussi d’un changement de paradigme.

En effet, trois éléments, au moins et d’ordres diffé-rents, sont significatifs de l’évolution actuelle : l’augmenta-tion des puissances de calcul et de traitement des données ; les modalités d’acquisition et d’archivage des données, liées notamment aux interconnexions, aux réseaux, aux modes de consommation ; et une « pensée magique », de nouveaux rapports aux risques, aux technologies, souvent un nouveau positivisme scientiste qui s’oppose à un rejet radical des usages des technologies.

Dans les années 1990, les méthodes statistiques infé-rentielles, descriptives comme les analyses factorielles ou bien explicatives, s’intègrent à des outils de gestion de don-nées pour la « fouille », la prospection des données (« data mining »). Cette intégration constitue une évolution impor-tante, car les données ne sont alors plus construites dans le cadre d’une démarche expérimentale, mais préalablement à la démarche, disponibles a priori. Cette évolution aurait pu s’accompagner d’une critique systématique des données elles-mêmes et de leur construction, ce qui a rarement été le cas. Les données, « vérités », sont rarement considérées comme des représentations particulières de phénomènes et, donc, peu critiquées ou mises en perspectives. Dans un contexte de recherche de mesure des performances, il faut trouver des indicateurs permettant les comparaisons ou les scorings. Une quantification est alors recherchée et devient primordiale, même s’il est évident que tout ne peut pas faire l’objet d’une quantification. La mise en place d’indicateurs de performance, par exemple de l’activité scientifique des chercheurs (« publish or perish »), est significative de cette évolution, avec des conséquences intéressantes : les acteurs, quand ils sont au fait des modalités de construction des cri-tères utilisés, en particulier dans les algorithmes, peuvent mettre en œuvre des stratégies qui, finalement, abou-tissent à une meilleure reconnaissance individuelle, sans

Gilles Rouet

24 HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 24 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

forcément se soucier alors de leur crédibilité scientifique. L’augmentation du nombre d’articles scientifiques publiés exposant des résultats non reproductibles est certainement liée à ces stratégies d’acteurs.

L’évolution technologique a rapidement entraîné une augmentation gigantesque du volume de données pou-vant être compilées, conservées, archivées et traitées. Sur un tel volume de données, tous les tests sont significatifs et donc sans aucune utilité (Demidenko, 2016), sauf à continuer à s’intéresser à la critique des données et de leur construction : le chercheur essaie de définir des variables, et s’intéresse à leurs mesures, il s’agit de donner du sens, de répondre à des questions de recherche, de confirmer ou non des hypothèses. Toutes les données produites dans le cadre des flux informationnels actuels ne correspondent pas forcément aux besoins de toutes les démarches de recherche, mais sont disponibles – une qualité essentielle ! Ces données proviennent de connexions numériques qui laissent de multiples traces, collectées en particulier par l’intermédiaire de cookies, mais pas seulement (Cardon, 2015). Elles améliorent certes la navigation pour les utili-sateurs (qui doivent en accepter le principe dans les pays où leur enregistrement/transfert est soumis à autorisation), mais permettent également de réaliser un profilage, de dis-tinguer des comportements.

Il semble impossible désormais d’envisager les algo-rithmes en dehors de cette masse de données, ce « big data », leur « carburant » dont l’enjeu commercial et éco-nomique est énorme – directement pour le référencement et l’optimisation des services sur Internet, et indirectement par la création de valeur dans le modèle économique des entreprises numériques.

Dans le cas de l’action publique, quand les objectifs des algorithmes sont d’optimiser des ressources ou des dispo-sitifs techniques, alors leur acceptation, leur appropriation par le public sont assez faciles à constater (sauf quand il est question de l’usage des données personnelles sans autorisa-tion). Les présentations « optimistes » des « smart cities »

illustrent ce constat : il s’agit de promouvoir, au bénéfice de tous, une gestion harmonieuse des flux ou encore la possibilité d’une évaluation en temps réel des services par des consommateurs/citoyens/habitants, notamment dans un contexte de prise de conscience de la rareté de certaines ressources.

L’optimisation de l’usage des ressources et l’automa-tisation des tâches fastidieuses ne sont pas les seuls objec-tifs. Les algorithmes sont aussi construits pour prédire : il s’agit alors de chercher les causes d’un événement à partir du traitement d’un ensemble de données, en particulier produites par les consommateurs/citoyens eux-mêmes, et exploitées dans le cadre d’un modèle économique d’un genre nouveau. Une dizaine d’algorithmes, ceux des GAFAM pour le monde occidental, compileraient ainsi les milliards de données du quotidien de chacun, des données personnelles, souvent factuelles, sur les achats, les déplace-ments avec la géolocalisation, les temps de navigation, les pages consultées, mais aussi, de plus en plus, des mesures physiologiques, battements du cœur, souffle, changements rétiniens, etc. Ces données sont la source d’une création de valeur qui échappe à leurs producteurs, sauf à considérer qu’il s’agit de payer des services qui apportent finalement une satisfaction. Dans le réseau mondial des intercon-nexions, avec Internet et les objets connectés, les individus sont des « documents comme les autres » (Ertzscheid, 2017). Les leaders du numérique tentent en permanence de maximiser cette collecte de données en amenant les usa-gers à utiliser les services numériques de leurs plateformes, partout et le plus souvent possible.

Neutralité et biais des algorithmes

La neutralité de ces plateformes n’est qu’une illusion. Les analyses et les critiques relatives, par exemple, à l’algo-rithme de Facebook ou au PageRank de Google expliquent et dénoncent les discriminations de traitement ou les

Démystifier les algorithmes

25HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 25 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

censures. Les réactions des responsables s’inscrivent sou-vent dans le cadre d’une idéologie technocentrée, imputant les « erreurs » à l’imperfection des algorithmes eux-mêmes, susceptibles d’être améliorés rapidement. Il est difficile de faire reconnaître aux entreprises concernées leur respon-sabilité directe (ce qui pourrait induire une intentionna-lité), en particulier sur l’impact non seulement des biais de leurs algorithmes, mais aussi de leur fonctionnement même, car l’objectif n’est rien d’autre qu’une maximisation des connexions et des échanges. Il ne s’agit pas vraiment de technologie, mais bien du fonctionnement même du modèle économique, qui prolonge la captation du fameux « temps de cerveau disponible3 » par TF1 en 2004 (Citton, 2018).

Les algorithmes naissent d’objectifs et doivent fournir des résultats. Constructions humaines, y compris quand il s’agit de dispositif susceptible d’auto-apprentissage, les algorithmes ne peuvent pas être neutres. Comme les statistiques, les algorithmes sont le produit de conven-tions sociales (Desrosières, 2011). Avant le dispositif Parcoursup, dont il sera question plus loin et qui tente désormais de mettre en concordance les demandes d’ad-mission dans l’enseignement supérieur des nouveaux bacheliers avec les offres des établissements, la plateforme Admission Post-Bac a fonctionné de 2009 à 2017. Elle a suscité de nombreuses critiques, en particulier par rapport à la transparence nécessaire de ce type de dispositif : quelles étaient les données utilisées et comment étaient-elles trai-tées pour l’obtention des résultats ? Les futurs étudiants devaient établir une liste hiérarchisée de choix d’orienta-tion. La méthode choisie pour mettre en concordance ces choix avec les offres était celle des « mariages stables », avec l’algorithme de Gale-Shapley4, l’objectif étant d’éviter au maximum les situations instables, c’est-à-dire, en consi-dérant deux couples, le cas où chacun des conjoints pré-férerait être en couple avec le conjoint de l’autre couple. Une telle démarche ne peut aboutir à des résultats satisfai-sants que si les choix hiérarchisés sont définis sincèrement

par les candidats aux études, ce qui n’est évidemment pas toujours le cas. Beaucoup d’utilisateurs ont en effet déve-loppé des stratégies, basées sur leurs représentations et les informations dont ils disposaient et n’ont pas, finale-ment, ordonné leurs souhaits d’orientation conformément à leurs véritables souhaits, ce qui a contribué à perturber le fonctionnement de l’algorithme, basé en particulier sur l’hypothèse de la rationalité des acteurs.

Les algorithmes traitent des données et mettent en évidence des liaisons qui sont souvent interprétées comme des corrélations, sans référence à une analyse des causalités directes ou indirectes. Il ne s’agit en effet pas de s’interroger sur les causes, afin d’en comprendre des conséquences observées, mais de focaliser sur des données considérées comme des conséquences de causes probables qu’il s’agit d’estimer. Les entreprises, avec ces dispositifs, mais aussi l’administration publique suivent ainsi plus des objectifs d’action que de connaissance (et de tentative de compréhension) du réel. L’objectif est de prédire, à partir de données des consommateurs-citoyens, ce que ces der-niers souhaitent ou feront, une anticipation de l’avenir qui reproduit un passé sans vraiment chercher le sens des actions. Ces algorithmes sont souvent des « boîtes noires » prescriptives à l’efficacité bien relative, car les traces com-portementales à la base des calculs ont une précision sujette à caution et peuvent s’avérer finalement erronées (Pasquale, 2015).

Cette question de la qualité des données est à la fois essentielle et assez peu discutée. Par rapport, en premier lieu, aux algorithmes eux-mêmes : les dispositifs actuels ont souvent besoin d’une quantité énorme de données, par exemple les systèmes de reconnaissance et de définition de catégories à partir d’images. Sur ce plan, la performance humaine est (toujours) bien plus importante, en particulier en tenant compte de l’énergie dépensée ! De plus, les don-nées elles-mêmes peuvent être sujettes à caution, en parti-culier quand il s’agit de les utiliser par rapport à un objectif précis, alors que leur construction a été élaborée avec

Gilles Rouet

26 HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 26 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

une autre démarche. L’analyse simultanée de différentes données peut aussi donner lieu à la création de « faux » positifs. Par exemple, une carte bancaire utilisée dans un pays étranger signalé comme risqué peut être bloquée par la banque quand l’algorithme prédit une fraude probable, alors que le titulaire est en voyage pour la première fois dans le pays. Plus dramatiquement, des demandeurs de crédits peuvent voir leur demande rejetée, car les données analy-sées relatives à leur compte en banque les classent dans une catégorie à risque de mauvais payeurs. La composition des corpus de données peut induire des résultats biaisés : par exemple, un déséquilibre entre hommes et femmes dans une base de données relative à des embauches passées dans une entreprise, utilisée comme références d’un algorithme d’aide au recrutement, peut aboutir à la discrimination de candidates qualifiées.

Si les données de références utilisées pour l’appren-tissage d’un algorithme, pour classer ou prédire, sont inexactes ou partielles, alors les résultats obtenus ne corres-pondront certainement pas à l’objectif. Il en est de même si certaines données essentielles pour le problème posé ne sont pas disponibles, ou bien sont difficiles, voire impos-sibles à obtenir, faute, par exemple, de méthodologie de recueil. Les biais de sélection, dans le cas d’échantillons tronqués ou non représentatifs, sont également courants, par exemple dans le cas d’entreprises qui ne disposent que des données de leur clientèle.

Les impacts discriminatoires sont au centre de l’analyse de Cathy O’Neil pour qui les algorithmes incriminés sont des « armes de destruction mathématique » qui « promettent efficience et équité, mais pervertissent en réalité l’enseigne-ment supérieur, aggravent l’endettement, favorisent une incarcération massive, oppriment en toutes occasions les plus pauvres, et sapent la démocratie » (2018, p. 297).

D’autres biais cognitifs peuvent aussi être identifiés, car les algorithmes sont composés par des programmeurs humains, avec leurs stéréotypes et leurs représentations. De plus, le programmeur peut ne pas chercher à vérifier

l’exactitude des mises en relations proposées. Des corré-lations, même illusoires, peuvent ainsi être utilisées alors même que les événements mesurés sont indépendants. La manière de formuler les questions ou de présenter des informations peut aussi influencer le programmeur (« fra-ming ») (Bertail et al., 2019).

Les biais sont reproductibles, tout comme, très géné-ralement, les erreurs : mauvaise saisie, problème d’acquisi-tion, etc. Il est en effet très difficile, même après correction dans une base de données particulière, et étant donnée l’architecture des centres d’archivage, de définitivement corriger ou effacer, comme il est difficile d’envisager qu’un algorithme, de lui-même, puisse réguler certains biais, en particulier ceux induits par les données elles-mêmes : cer-taines variables peuvent en influencer d’autres, cachées, ou bien ne devant pas être prises en compte comme le sexe ou le quartier d’habitation par exemple.

Les algorithmes (dans le secteur privé) sont aussi souvent conçus pour prendre en compte des considéra-tions économiques particulières, par exemple chercher à favoriser les produits les plus rentables d’une entreprise au détriment de l’intérêt du consommateur. Dans un tel cas, il ne s’agit pas de biais algorithmique, mais de stratégie particulière de la part de l’entreprise, pouvant s’analyser comme une tromperie pour le consommateur, ce qui jus-tifie les poursuites diligentées dans le cadre de la régulation du commerce électronique.

Les biais qui provoquent certains effets indésirables, comme des discriminations, ne sont cependant pas inten-tionnels, mais souvent induits par la qualité des données, une défaillance dans l’analyse préalable du corpus ou encore la construction même de l’algorithme. Il reste cependant difficile d’établir une stricte frontière entre biais et inten-tions. Par exemple, une recommandation sur Amazon peut être envisagée comme résultant d’un algorithme prédictif, à partir de l’historique d’un internaute, ou bien d’une stra-tégie de mise en avant de certains auteurs ou éditeurs. Il est probable que ces deux démarches s’articulent dans la réalité.

Démystifier les algorithmes

27HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 27 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

Le discernement, une démystification, s’imposent donc pour tout recours à ces algorithmes qui n’ont ni la capacité de mettre en évidence des causalités, notamment indirectes, en restant au niveau des corrélations, ni celle de corriger les biais, d’autant plus que certains sont cachés ou difficiles à mettre en évidence sans audits approfondis. Il est actuellement difficile de prévoir une évolution tech-nologique aboutissant à des machines capables de « rai-sonner » et, actuellement, la généralisation des algorithmes dans (presque) tous les domaines présente des risques évidents. L’inflation d’usage de l’expression « intelligence artificielle » invite pourtant à accorder aux algorithmes des qualités qu’ils n’ont manifestement pas. Il est possible de suivre sur ce point la proposition de Luc Julia, développée dans L’intelligence artificielle n’existe pas : « la machine ne décide pas, c’est l’être humain qui prend les décisions, grâce à son intelligence, amplifiée par la technologie » (2019), et d’envisager plutôt une « intelligence augmentée ».

Il est donc très important non seulement de tenter de réduire les biais et d’envisager des audits des résultats obtenus par les algorithmes dans tous les domaines, que ce soit pour les tarifs différenciés des assurances, l’attribution d’allocations, l’autorisation de l’accès à des services, etc., mais aussi, pour le domaine public, d’organiser la trans-parence des algorithmes et de leur fonctionnement, de les considérer comme des biens publics, de publier leurs codes sources et d’informer sur les données utilisées, ce que pré-voit désormais la législation. Dans le cas de Parcoursup, l’algorithme a été publié, le fonctionnement est donc accessible aux candidats qui revendiquent actuellement de savoir comment chaque établissement prend ses décisions dans ce cadre.

Les citoyens ont droit à un traitement équitable. Mais comment intégrer l’équité dans les algorithmes, et quelle équité : individuelle, collective ? Ces débats éthiques ne sont pas nouveaux, mais sont ravivés par les analyses actuelles de l’impact des algorithmes sur la vie publique, en particulier.

Critiques de la « décision algorithmique »

Les algorithmes participent aux processus décision-nels, dans le secteur privé, voire intime, comme au niveau de l’action publique, dans de multiples domaines, par exemple celui de la mobilité avec la question des voitures autonomes (Awad et al., 2018), mais aussi, plus ancien-nement, de la tarification des transports ou de l’organisa-tion des services de bus ; de la santé avec l’amélioration des diagnostics, mais aussi avec la prévention sur la base d’études génétiques ; de la justice avec une analyse des jurisprudences et des sentences rendues qui peut aider les justiciables à mieux envisager les risques et donc à mettre en place des stratégies particulières ; de l’éducation avec des dispositifs d’optimisation des affectations des élèves et des étudiants par rapport à leurs projets et à la mesure de leurs performances et aptitudes (Rouet, 2019). Ces inno-vations contribuent certainement à améliorer l’efficacité et l’efficience de l’action publique, tout en posant des pro-blèmes éthiques. Les potentialités réelles d’amélioration de la vie quotidienne, d’optimisation de l’utilisation des fonds publics, d’adaptation des produits et services marchands ou non ne sont pas à mettre en balance avec la nécessaire transparence à organiser ou à réorganiser, à la fois relati-vement aux processus décisionnels, à la compilation et l’ar-chivage des données personnelles (directes ou indirectes) et à l’accès aux informations publiques.

La « décision algorithmique » n’existe pas, aucun algorithme ne peut avoir pour objectif de « décider ». Un résultat découlant d’un objectif ne constitue pas une décision5. La décision appartient à un acteur qui, dans le domaine public, est légitime pour agir. Utiliser sans dis-cernement les résultats d’un algorithme comme décision est un acte important, constitue une décision humaine bien évidemment. Si ce choix s’intensifie, il s’agit bien alors d’une institutionnalisation particulière d’une « action publique

Gilles Rouet

28 HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 28 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

algorithmique » qui doit être régulée (Basdevant et Mignard, 2018). La question n’est donc pas de savoir si oui ou non la décision appartient à l’acteur humain, mais bien de mesurer la place accordée aux résultats des algorithmes. La recherche formelle d’optimisation d’une situation dans un contexte compliqué de multiples variables et contraintes incite à accepter le recours à l’algorithmique, voire à le promouvoir, quitte à en corriger certains effets pervers identifiés.

Pour autant, un acteur public, une catégorie d’acteurs, peuvent être dépossédés, peuvent se déposséder eux-mêmes, d’une partie de leur rôle décisionnel, souvent en toute bonne foi, par facilité, contrainte de temps ou encore par convic-tion, en particulier dans la pertinence du « solutionnisme » technologique (Morozov, 2013). La généralisation d’un automatisme décisionnel, dans le domaine public, à partir d’algorithmes, peut aboutir à un autoritarisme numérique, avec une limitation des droits individuels ; des exemples à l’international sont désormais bien connus. Ce n’est pour-tant pas le projet, a priori, des « États plateformes » : mises à disposition des citoyens de ressources partagées, dans l’espoir de les inciter à participer à l’évolution de l’action publique, de manière décentralisée, contributive et col-laborative, susceptible de développer une démarche de servuction, production de service que le consommateur peut évaluer, améliorer, voire co-créer. Un objectif bien évidemment mobilisateur pour un renouveau de la parti-cipation citoyenne. Actuellement, les citoyens/usagers ne connaissent pas exactement le nombre d’algorithmes uti-lisés au sein des administrations et service public les concer-nant, ni les conditions de leur utilisation. La mission Etalab a récemment publié un mode d’emploi relatif à leur intégra-tion dans les services6. Désormais, au sein des collectivités de plus de 50 agents et de 3 500 habitants, les décideurs sont tenus de respecter des obligations de transparence.

Il est légitime de s’interroger sur la possible limitation par les algorithmes du libre arbitre des acteurs publics ou politiques, de leur déresponsabilisation, ce qui remettrait en question, au-delà de l’éthique et des valeurs morales,

l’organisation même de nombreux domaines d’action publique : éducation, justice, santé, prisons, etc. Comment, dans le cadre de cette évolution, maintenir un dispositif de contrôle démocratique de l’action publique ? Comment accepter que l’État puisse se transformer en « monstre froid » (Tournay, 2017) ?

L’application des principes du New Public Management, la promotion d’une « bonne gouvernance », sont justifiées par des objectifs légitimes d’optimisation des ressources publiques et de satisfaction des citoyens. L’action publique a besoin d’évolution, d’adaptation, de créativité, d’innova-tion. Pour autant, considérer les algorithmes comme des outils neutres et éviter toute analyse politique du recours à ces instruments pour les décisions publiques revient à pro-mouvoir sans discussion les représentations et les valeurs de leurs concepteurs. La démystification des algorithmes est indispensable car, finalement, les acteurs publics et les citoyens portent en eux les clés de la performance, avec une utilisation réfléchie des algorithmes. Ces derniers ont sou-vent été développés sans évaluation de leur utilité, sans audit d’étape, par « solutionnisme ». Ce n’est évidemment pas l’algorithme qui est déresponsabilisant, mais l’usage qui en est fait et la manière dont on le considère. Mais une déci-sion est aussi liée à une alchimie des intuitions et des rela-tions humaines. Un usage assumé, démystifié et réfléchi des algorithmes peut justement contribuer à mieux cultiver le relationnel dans le rapport aux usagers. L’utilisation d’algo-rithmes devrait participer à la construction du sens du travail des agents, qui ne doivent pas craindre de n’être finalement qu’une interface entre des résultats d’algorithme et des admi-nistrés concernés. Il faut rester vigilant et engager un tra-vail de réflexion sur ce que l’algorithme permet ou pas. Le pouvoir qui lui est attribué, réel ou fantasmé, prédictif ou explicatif, incite à mettre en place un cadre pouvant contri-buer à la démystification des algorithmes. Le RGDP7 et la loi pour une République numérique8 apportent des éléments de réponse, en particulier relativement à la loyauté et à la trans-parence, sans que soient réglées, notamment, les questions

Démystifier les algorithmes

29HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 29 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

de l’articulation des stratégies des entreprises et du secret des affaires avec la transparence et la protection des données.

Il appartient aux institutions d’œuvrer pour cette démystification des algorithmes, d’exorciser le « coup data » (Basdevant et Mignard, 2018) dans le contexte des débats éthiques et moraux, par l’éducation, la formation continue, mais aussi dans le cadre des rapports dans le domaine public, de tenter une réponse à la crise de la repré-sentation au sein des démocraties. Le réel ne peut pas se gouverner par lui-même (Rouvroy et Bernes, 2013) et il faudrait éviter de « déléguer sans limites aux machines le soin de régler nos relations et nos rapports avec le monde »

(Besnier, 2012). Les espaces publics ont à s’emparer égale-ment de cet objectif de démystification, pour renforcer la lucidité collective et individuelle par rapport aux stratégies des entreprises du numérique, mais aussi à l’évolution pos-sible des États, des administrations et des services publics. Chacun doit aussi être en capacité de remettre en cause ses comportements dictés par une servitude volontaire (Vion-Dury, 2016). Les algorithmes doivent être intégrés à nos cultures, en connaissance de cause, dans un cadre régle-mentaire cohérent et solide et en privilégiant la communi-cation et le relationnel : une machine ne pourra jamais, au mieux, qu’être un miroir déformé de nous-même.

N O T E S

1. Cf. <www.le-tresor-de-la-langue.fr/definition/algorithme>, page consultée le 21/09/2019.

2. Décret no 2011-476.3. Cf. Patrick Le Lay, sur < www.nouvelobs.com/culture/20040710.

OBS2633/le-lay-nous-vendons-du-temps-de-cerveau.html>, page consultée le 21/09/2019.

4. Cf. <www.lemonde.fr/blog/binaire/lalgorithme-de-gale-shapley/>, page consultée le 21/09/2019.

5. Sur la décision, cf. les travaux d’Alain Berthoz.6. Cf. <etalab.github.io/algorithmes-publics/guide.html>, page consul-

tée le 21/09/2019.7. Sur le Règlement général sur la protection des données, cf. <www.

dpms.eu/rgpd/>, page consultée le 21/09/2019.8. Cf. <www.economie.gouv.fr/republique-numerique>, page consul-

tée le 21/09/2019. Il est fait une distinction entre explicabilité

et interprétabilité des algorithmes. Il est possible de rendre compte d’une décision « explicable » en décrivant comment les mises en relation de valeurs prises par certaines variables et les résultats obtenus (par exemple un score) sont liés à la décision prise. Une décision interprétable est caractérisée par les variables qui parti-cipent le plus à la décision. Le décret d’application de la loi pour une République numérique prévoit la divulgation de certaines informations, quand elles ne sont pas protégées par la loi : le degré et le mode de contribution du traitement algorithmique à la prise de décision ; les données traitées et leurs sources ; les paramètres de traitement et leur pondération, si cela est prévu ; les opérations effectuées par le traitement. A priori, donc, aucune décision admi-nistrative en France concernant une personne physique ne peut se baser sur un algorithme « opaque ». Cf. Besse, Castets-Renard et Garivier, 2017.

R É F É R E N C E S B I B L I O G R A P H I Q U E S

Awad, E., Dsouza, S., Kim, R., Schulz, J., Henrich, J., Shariff, A. et Rahwan, I., « The Moral Machine Experiment », Nature, no 563, 2018, p. 59-64.

Basdevant, A. et Mignard, J.-P., L’Empire des données. Essai sur  la société, les algorithmes et la loi, Paris, Don Quichotte, 2018.

Gilles Rouet

30 HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 30 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)

Bertail, P., Bounie, D., Chémençon, S. et Waelbroeck, P., Algorithmes : biais, discrimination et équité, Paris, Institut Mines-Télécom, 2019.

Berthoz, A., La Décision, Paris, Odile Jacob, 2013.

Besnier, J.-M., L’Homme simplifié. Le syndrome de la touche étoile, Paris, Fayard, 2012.

Besse, P., Castets-Renard, C. et Garivier, A., « Loyauté des décisions algorithmiques : contribution au débat public initié par la CNIL : Éthique et numérique », 2017. En ligne sur : <hal.archives-ouvertes.fr/hal-01544701>, page consultée le 21/09/2019.

Cardon, D., À quoi rêvent les algorithmes ? Nos vies à l’heure des big data, Paris, Seuil, 2015.

Citton, Y., « De la rhétorique au big data, l’art de la captation », Le Monde, 21-22 oct., 2018.

Conseil national du numérique, Ambition numérique : pour une politique française et européenne de la transition numérique, Paris, La Documentation française, 2015.

Demidenko, E., « The P-Value You Can’t Buy », The American Sta-tistician, vol. 70, no 1, 2016, p. 33-38.

Desrosières, A., « Entretien avec Christian Mouhanna », Sociolo-gies pratiques, vol. 1, no 22, 2011, p. 15-18.

Ertzscheid, O., L’Appétit des géants. Pouvoir des algorithmes, ambition des plateformes, Caen, C&F, 2017.

Julia, L., L’Intelligence artificielle n’existe pas, Paris, First, 2019.

Morozov, E., To Save Everything, Click Here: Technology, Solu-tionnism, and the Urge to Fix Problems that Don’t Exist, New York, Allen Lane, 2013.

O’Neil, C., Algorithmes. La bombe à retardement, Paris, Les Arènes, 2018.

Pasquale, F., Black Box Society, les algorithmes secrets qui contrôlent l’économie et l’information, Limoges, FYP, 2015.

Rouet, G. (dir.), Algorithmes et décisions publiques, Paris, CNRS éditions, coll. « Les Essentiels d’Hermès », 2019.

Rouvroy, A. et Berns, T., « Gouvernementalité algorithmique et perspectives d’émancipation : le disparate comme condition d’émancipation par la relation », Réseaux, no 177, 2013, p. 163-196.

Rouvroy, A., Des données et des hommes : droits et libertés fonda-mentales dans un monde de données massives, Rapport, Strasbourg, Conseil de l’Europe, 2015.

Tournay, V., « Les algorithmes vont-ils transformer l’État en “monstre froid” », Le Monde, 22 nov. 2017.

Vion-Dury, P., La Nouvelle Servitude volontaire, enquête sur le projet politique de la Silicon Valley, Limoges, FYP, 2016.

Démystifier les algorithmes

31HERMÈS 85, 2019

HERMES-85_cs6_pc.indd 31 28/10/2019 08:34:38

© C

NR

S É

ditio

ns |

Tél

écha

rgé

le 2

4/07

/202

2 su

r w

ww

.cai

rn.in

fo (

IP: 6

5.21

.229

.84)

© C

NR

S É

ditions | Téléchargé le 24/07/2022 sur w

ww

.cairn.info (IP: 65.21.229.84)