Cette fiche défi a été rédigée en septembre 2018, c’est une version provisoire, donc incomplète, pour documenter le sujet. Elle sera enrichie pendant la phase de contribution en ligne (à partir de février 2019).

Citations :
« Un bon codeur est celui qui est capable de penser de façon critique les conséquences fortuites engendrées par son code», danah boyd (source : Failles, biais, erreurs… faut-il croire tout ce que nous disent les algorithmes ?)
”L’objectif de ce débat est de garantir que l’intelligence artificielle augmente l’homme plutôt qu’elle ne le supplante et participe à l’élaboration d’un modèle français de gouvernance éthique de l’intelligence artificielle. Nous devons collectivement faire en sorte que ces nouveaux outils soient à la main humaine, à son service, dans un rapport de transparence et de responsabilité”, Isabelle Falque-Pierrotin, présidente de la CNIL (source : la CNIL)
Pourquoi nous avons besoin d’un “reset” (ce qui se passe mal, ce qui ne peut plus durer)
Les algorithmes sont conçus pour améliorer la prise de décision humaine et résoudre des problèmes, or les biais algorithmiques sont nombreux (biais sexistes, racistes, sociales). Les algorithmes, loin d’être neutres et objectifs, “sont des opinions formalisées dans du code”, comme le souligne la data scientist Cathy O’Neil. Ils sont souvent opaques, impénétrables et renforcent donc les injustices existantes. Dans une société où des décisions aux enjeux critiques sont laissées aux mains des algorithmes et des systèmes (pilotage d’une voiture autonome ; affectation dans l’enseignement supérieur des élèves de terminales ; gestion de l’assistance sociale dans certains états des États-Unis), il est nécessaire de rendre les algorithmes et systèmes responsables, équitables et compréhensibles.
Des visions alternatives existent déjà
De nombreuses institutions appellent à rendre le code des algorithmes publics ouverts, transparents et responsables (président français, gouvernement britannique), à établir un cadre éthique des données (Nesta), des principes pour améliorer la prise de décision algorithmique (Data Practices) ou encore un serment d’Hippocrate pour Data Scientist (Data for good). Des initiatives comme Cozy ou Snips essaient de rendre les algorithmes plus éthiques en les rendant plus transparents pour l’utilisateur.
Le projet NosSystèmes à la Fing a également esquissé 5 leviers pour améliorer la responsabilité sociale des systèmes (responsabilité par la médiation, explicabilité, jouabilité, symétrie et justiciabilité). Mais comment rendre ces initiatives concrètes pour que les algorithmes et les systèmes soient vraiment responsables, transparents et sans biais ? L’idée proposée par Algorithm Data Ethics Label (ADEL) est par exemple de labelliser le traitement des données.
Acteurs qui y travaillent déjà
Data for good, Nesta, CNIL, CNNum, ADEL, Institut IA Now, Milad Doueihi, Dominique Cardon, la Fing avec son projet NosSystèmes
Dossier de veille : https://docs.google.com/document/d/1Zsn_qyJGs64N9zJLz3gv9Q6kF7A2pU4n4gNPsEimKKQ/edit