6. Pour des algorithmes et systèmes d’IA responsables et maîtrisés

Présentation

  • en projet
  • en recherche de coportage (acteurs privés, publics,  société civile)

L’entrée à marche forcée dans l’ère de l’intelligence artificielle et des algorithmes occultent trop souvent les enjeux politiques et sociaux qui sous tendent l’utilisation de ces technologiques. Si la loi exige désormais que les algorithmes publics soient rendus explicables, et transparents lorsqu’ils sont à l’origine d’une décision individuelle, la mise en oeuvre d’un tel principe suppose des capacités techniques et méthodologiques pour les administrations, encore insuffisantes aujourd’hui. Il est nécessaire de connaître et détecter les critères des algorithmes, les biais qu’ils peuvent contenir et de pouvoir les discuter. 

La multiplication de projets publics d’intelligence artificielle exige d’autant plus que les systèmes et outils techniques soient construits scrutés au regard de principes démocratiques : la transparence, responsabilité, l’équité, la recherche de l’intérêt général. Les pratiques actuelles, ou du moins ce qu’en voit le public, ne donnent pas les garanties suffisantes d’une applications de tels principes.

Impacts en 2022

  • Les 50 algorithmes publics qui ont un impact significatif font la preuve de l’exemplarité par l’action : ils intègrent des modalités de discussion sur les choix techniques et non techniques, ils proposent des outils de simulation (individuelles, par exemple pour simuler une aide, et collectives, par exemple pour détecter des biais)
  • Les administrations publiques qui développent des algorithmes pour prendre des décisions individuelles respectent la loi et “au-delà” : en plus de faire apparaître la mention légale obligatoire, le taux et de la délai de réponse lors d’une saisine individuelle sont de 72 heures
  • Des principes éthiques pour l’IA sont co-construits et appliqués par les acteurs publics (et privés)

Leviers

  • Mise en place et test d’une matrice éthique des algorithmes publics
  • Ouverture d’un observatoire de la transparence et de l’explicabilité des algorithmes publics
  • Formations croisées de juristes et datascientists à l’éthique des algorithmes
  • Adoption d’un code de conduite des datascientists publics
  • Mise en place d’outils ouverts d’audits des algorithmes
  • Commandes pédagogique
  • Médiation citoyenne et inclusion numérique
  • Commande publique exemplaire
  • Registre public des systèmes d’IA

Modalités

  • 2021 – Phase de cadrage : 8 et 28 octobre
  • 2022 – Phase de convergence
  • 2022 – Phase d’actions

Acteurs à associer (offre, commande, usages)

  • Commande : MEL, Grand Lyon, Etalab, La Poste, La Rochelle, France Stratégie, CNNUM, CNIL, Ademe, MAIF, Défenseurs des Droits,
  • Offre : Orange, Berger Levrault, Datactivist, Cité de l’IA, UrbanAI, CapDigital
  • Usages : AlgoTransparency, UFC Que Choisir, Réseau des Fablabs, Fondation Blaise Pascal, Quadrature du Net, Designers Ethiques, Petits Débrouillards, CRIJ Occitanie, Turbine Infolab

S’engager dans cette coalition, cela peut vouloir dire… :

  • Construire, pour sa collectivité, son administration ou son entreprise, des principes d’action pour des systèmes d’IA exemplaires
  • Se former sur les enjeux juridiques et techniques des algorithmes
  • Identifier les biais prioritaires à scruter dans les systèmes d’IA publics et outiller les citoyens pour les adresser

Rendez-vous pour avancer

  • rencontre cadrage 1 : 08 octobre
  • Forum Européen de l’IA territoriale : 15 et 16 octobre
  • rencontre cadrage 2 : 28 octobre

Vous souhaitez contribuer à cette coalition ?

Contactez-nous !

Ressources et productions

Premiers soutiens