{"id":15504,"date":"2021-07-13T08:27:05","date_gmt":"2021-07-13T06:27:05","guid":{"rendered":"https:\/\/www.etalab.gouv.fr\/?p=15504"},"modified":"2021-07-13T08:27:05","modified_gmt":"2021-07-13T06:27:05","slug":"evaluer-les-impacts-des-algorithmes-publication-dune-etude-internationale-realisee-a-la-demande-detalab","status":"publish","type":"post","link":"https:\/\/preprod.etalab.gouv.fr\/evaluer-les-impacts-des-algorithmes-publication-dune-etude-internationale-realisee-a-la-demande-detalab","title":{"rendered":"Evaluer les impacts des algorithmes: publication d’une \u00e9tude internationale r\u00e9alis\u00e9e \u00e0 la demande d’Etalab"},"content":{"rendered":"\n
Les algorithmes jouent un r\u00f4le croissant dans la sph\u00e8re publique, qu’il s’agisse de calculer le montant d’une aide sociale, d’attribuer une place en cr\u00e8che ou d’\u00e9valuer les risques de d\u00e9faillance des entreprises. La France s’est dot\u00e9 d’un cadre juridique en faveur d’une plus grande transparence de ces syst\u00e8mes et d’un droit \u00e0 l’explication pour les individus. Etalab, au sein de la direction interminist\u00e9rielle du num\u00e9rique, porte plusieurs actions en ce sens. C’est dans ce cadre qu’Elisabeth Lehagre<\/strong>, chercheuse ind\u00e9pendante a \u00e9t\u00e9 mandat\u00e9e pour r\u00e9aliser une \u00e9tude internationale sur les outils d’\u00e9valuation d’impact algorithmique<\/strong>.<\/em><\/p>\n\n\n\n Une \u00e9tude internationale<\/strong> des outils d’\u00e9valuation d’impact algorithmique<\/p>\n\n\n\n Nul ne doute aujourd’hui du fait que les algorithmes ont des impacts, positifs mais aussi parfois n\u00e9gatifs, sur les individus et la soci\u00e9t\u00e9. C’est pourquoi des gouvernements et des acteurs de la soci\u00e9t\u00e9 civile ont d\u00e9velopp\u00e9 des outils d’\u00e9valuation d’impact algorithmique (EIA). L’\u00e9tude publi\u00e9e ce jour pr\u00e9sente un regard critique sur 7 outils d\u00e9velopp\u00e9s dans le Monde (Royaume-Uni, Canada, Nouvelle Z\u00e9lande, Etats-Unis et Union europ\u00e9enne). <\/p>\n\n\n\n A quoi correspondent ces \u00e9valuations, que contiennent-elles, comment sont-elles mises en oeuvre ?<\/em> Voici quelques unes des questions trait\u00e9es par Elisabeth Lehagre, en menant un travail de recherche documentaire compl\u00e9t\u00e9 par des entretiens avec les acteurs qui con\u00e7oivent, d\u00e9ploient ou observent ces outils. In fine<\/em>, c’est la question de l’utilit\u00e9 de ces outils qui est pos\u00e9e.<\/p>\n\n\n\n Evaluer: quoi ? comment ? pourquoi ?<\/strong><\/p>\n\n\n\n Le premier constat est celui de la diversit\u00e9 des outils examin\u00e9s: il n’existe pas de mod\u00e8le-type. Les \u00e9valuations d’impact algorithmique se pr\u00e9sentent sous des formes et des contenus vari\u00e9s. Quelques exemples: <\/p>\n\n\n\n L’outil propos\u00e9 par le Gouvernement du Canada<\/strong> (conseil du Tr\u00e9sor) se distingue car il permet de calculer automatiquement le niveau de risques<\/strong> d’un syst\u00e8mes en r\u00e9pondant \u00e0 quelques questions. Selon le niveau d’incidence ainsi calcul\u00e9, des recommandations particuli\u00e8res sont formul\u00e9es.<\/p>\n\n\n\n La plupart des outils \u00e9tudi\u00e9s cherchent \u00e0 \u00e9valuer les impacts individuels et sociaux, voire soci\u00e9taux, des syst\u00e8mes algorithmiques mis en place. Mais, l\u00e0 encore, c’est la diversit\u00e9 qui pr\u00e9vaut. Certains outils mettent l’accent sur les droits fondamentaux (droits et libert\u00e9s des personnes, droit \u00e0 la vie priv\u00e9e, non-discrimination). D’autres privil\u00e9gient une approche par domaine d’impact: bien-\u00eatre, sant\u00e9, environnement par exemple.<\/p>\n\n\n\n Des outils d’auto-\u00e9valuation qui doivent encore faire leurs preuve<\/strong>s<\/p>\n\n\n\n Elisabeth Lehagre s’est aussi attach\u00e9e \u00e0 comprendre comment ces outils sont mis en oeuvre, en pratique. Deux questions \u00e9mergent: la compr\u00e9hension<\/strong> de ces outils par les acteurs qui sont cens\u00e9 les utiliser, et les limites de l’auto-\u00e9valuation. \u00ab\u00a0L’\u00e9valuation d’impact est-elle suffisamment compr\u00e9hensible pour \u00eatre utilisable ?<\/em>\u00a0\u00bb s’interroge ainsi l’auteure de l’\u00e9tude. Les difficult\u00e9s de compr\u00e9hension peuvent \u00eatre multiples: difficult\u00e9 \u00e0 cerner de mani\u00e8re pr\u00e9cise le p\u00e9rim\u00e8tre et l’objet de l’\u00e9valuation (\u00ab\u00a0syst\u00e8mes d’intelligence artificielle\u00a0\u00bb, \u00ab\u00a0algorithmes\u00a0\u00bb, \u00ab\u00a0syst\u00e8mes de d\u00e9cision automatis\u00e9e\u00a0\u00bb ?) mais aussi les domaines d’impact (\u00ab\u00a0bien-\u00eatre\u00a0\u00bb, \u00ab\u00a0droits et libert\u00e9s des personnes\u00a0\u00bb ?). Les gouvernements canadiens et n\u00e9o-zelandais ont ainsi d\u00fb mener des actions compl\u00e9mentaires: tenue d’ateliers pluridisciplinaires, proposition de d\u00e9finition pr\u00e9cise des syst\u00e8mes concern\u00e9s, etc. <\/p>\n\n\n\n La seconde interrogation concerne l’auto-arbitrage<\/strong>. En effet, la tr\u00e8s grande majorit\u00e9 de ces outils ont \u00e9t\u00e9 pens\u00e9s comme des outils d’auto-\u00e9valuation interne, o\u00f9 les personnes r\u00e9alisant l’exercice d’\u00e9valuation sont aussi celles en charge de la conception et du d\u00e9ploiement de ces outils. Afin d’\u00e9viter les risques li\u00e9s \u00e0 l’auto-arbitrage (o\u00f9 les m\u00eames acteurs sont potentiellement juge et partie), plusieurs recommandations ont \u00e9t\u00e9 d\u00e9velopp\u00e9es, dont l’importance de rendre publique et transparente les \u00e9valuations d’impact algorithmique. La possibilit\u00e9 de faire participer des tiers (pairs en interne ou experts externes) \u00e0 l’\u00e9valuation ou au contr\u00f4le des syst\u00e8mes est une autre piste \u00e9tudi\u00e9e.<\/p>\n\n\n\n Une \u00e9tude pour ouvrir le d\u00e9bat <\/strong>et faire conna\u00eetre les outils<\/p>\n\n\n\n Par la publication de cette \u00e9tude in\u00e9dite en France, Etalab<\/strong> souhaite contribuer au d\u00e9bat, au niveau national et international, sur l’\u00e9valuation des impacts des algorithmes. Cette question est au coeur de la future r\u00e9gulation sur l’Intelligence artificielle dont une premi\u00e8re version vient d’\u00eatre rendue publique par la Commission europ\u00e9enne. Il s’agit aussi de donner acc\u00e8s \u00e0 une large communaut\u00e9 de concepteurs de ces syst\u00e8mes (au sein des administrations et au-del\u00e0) aux derniers outils existants au niveau international.<\/p>\n\n\n\n