Programme détaillé de l'école Responsabilité des algorithmes du 21 au 26 mai 2023
Programme détaillé
École des GDR ROD et RADIA Responsabilité des algorithmes du 21 au 26 mai 2023
Lundi
8h30 - 10h15 : Vingt mille lieues sous les algorithmes : explorer les grands enjeux éthiques, Odile Bellenguez (LS2N, IMT Atlantique, Fr)
Les faits divers s'accumulent pour montrer sans cesse de nouveaux effets non souhaités, souvent imprévus, des usages algorithmiques. De plus en plus d'enjeux, de portée et de nature différentes, apparaissent ainsi et rendent l’analyse globale complexe et souvent confuse de ce que serait la responsabilité ou l'éthique des algorithmes. L'objectif de cette présentation est d'introduire quelques concepts pour penser différentes questions incontournables, et tenter d'organiser l'analyse des enjeux et de la responsabilité sous-jacente.
Afin d'avoir une base commune de discussion, il est recommandé que les participants voient avant de venir :
- le séminaire "Quelle éthique pour quelle IA?" de David Doat (35 minutes)
- ou à défaut au moins la vidéo du Lab'éthique (8 minutes)
10h45 - 12h30 : Rationality, Legitimacy, Validity, Yves Meinard (LAMSADE, FR)
Tant dans les publications académiques que dans les discours politiques ou dans les interactions avec la sphère publique, les discussions sur le rôle des algorithmes et, plus généralement, de l’aide à la décision, se structurent autour de termes clefs, parmi lesquels « rationalité », « légitimité » et « validité » jouent souvent un rôle proéminent. Ces termes semblent transparents, mais ils sont en fait profondément polysémiques. Dans cette session de l’école d’été, l’objectif est de discuter les significations de ces termes, de façon à en clarifier l’usage, et à les rendre pertinents pour structurer des discussions rigoureuses et constructives.
14h30 : Cas d'étude - IA et santé, Antoine Richard (Chargé des Applications IA à la DSN des HCL), François Talbot, CHU Lyon
Depuis quelques années, les Systèmes d’Information Hospitalier (SIH) basés sur des algorithmes d’IA commencent à être utilisés en pratique. Cependant, l’utilisation de l’IA en santé soulève de nombreuses problématiques liées à l’éthique : sensibilité des données, transparence, responsabilité en cas d’erreur, impact sur les patients et les médecins, etc. Dans ce cours, nous étudierons ces différentes problématiques d’un point de vue général, mais aussi à travers des cas d’usage.
Mardi
8h30 - 10h15 : Privacy, Data Protection, Security, Benjamin Nguyen (LIFO, FR)
Personal data is often used in many data intensive applications, from AI to automatic decision making. In this tutorial, we will discuss two concepts that can be used to protect the privacy of users whose data is processed by these applications : anonymization and minimization. We will discuss classical anonymization techniques, used for tabular data, including differential privacy and also extensions to spatio-temporal data and RDF data. Hands on work will be done on tabular data using the ARX software suite developped by TU München (the software can be downloaded at https://arx.deidentifier.org/). If time permits, we will also present the concept of data minimization, and how this technique can be applied in a real use case of administrative form filling.
10h45 - 12h30 : Explainable Data Cleaning For ML Pipelines, Vassilis Christophides (ENSEA, FR)
Detecting and repairing dirty samples in training datasets, is a critical task of end-to-end ML pipelines, as they can corrupt ML models in ways that may cause an AI system to operate incorrectly, unfairly, unreliably, or dangerously. Traditionally, data cleaning tasks are executed prior to, and independently of model building tasks and often rely on human feedback from data scientists and domain experts. Although it is known that a drop in error from 3% to 2% might require an order of magnitude more data, computation, or energy, several empirical studies report that existing ML-agnostic data cleaning might lead to a sub-optimal improvement of the performance of downstream ML models.
After introducing the main steps/tasks of ML pipelines used to implement the full life-cycle of modern AI projects, we survey major model-aware data cleaning methods that jointly model and repair dirty data. Then, we are focusing in model diagnosis methods that allows analysts to understand how dirty samples (on features and labels) affect the predictive performance of ML models in order to undertake adequate repair actions. In this tutorial, we are particularly interested in recently proposed influence functions allow us to reveal the training samples that influence the model’s decision for a particular test sample, either positively or negatively. Influence functions essentially offer local explanations for the model’s decision boundary and can be beneficial for model debugging. Using real datasets (image, sensor), we will present how error signals extracted from such functions can be used to spot different error types of samples and assess their degree of influence in training/test performance of ML models.
14h30 : Cas d'étude - Auditing and Regulating Algorithms, Benoit Rottembourg, projet REGALIA (INRIA, FR)
Contexte : Les recommandations algorithmiques en ligne font partie de notre vie, tant elles nous sollicitent de leurs stimuli quotidiens. Chacun sait le rôle que joue l’intelligence artificielle (symbolique et connexionniste) et les nouvelles manipulations qu’elle permet, et l'on imagine aisément la difficulté à auditer des algorithmes à la fois personnalisés et multi-dimensionnels. Nous évoquerons les grandes approches d’audit (« in vitro» et « in vivo »), et particulièrement l’audit en « boîte noire » avec ses forces et ses contraintes qui sera le sujet de l'étude de cas.
Etude de cas "Détecter les biais d'une agence de voyage en ligne" : Les agences de voyage en ligne (OTA) ont été souvent pointées du doigt par les autorités de régulation européennes et britanniques, pour leurs pratiques commerciales trompeuses, et leurs démarches agressives commercialement ("il n'existe plus que deux places à ce prix là"). Votre mission lors de cet atelier, si vous l'acceptez, consistera à détecter les biais d'un algorithme de pricing d'agence de réservation d'hôtels. Pour cela, vous aurez accès à des prix scrapés de 999 hôtels dans 9 villes d'Europe, pendant 45 jours de réservation. Il s'agira pour vous de comprendre (par analyse et modélisation) le comportement nominal de l'algorithme de pricing, et les variables sensibles (comme la langue du site web) qui jouent un rôle significatif sur le prix proposé. Vous serez guidés, en petits groupes, tout le long de l'après-midi par les ingénieurs du projet Regalia, qui ont construit ce benchmark en s'inspirant de la jurisprudence. Nous synthétiserons les découvertes et ferons la part des choses entre le légal et l'illégal, entre l'éthique, le douteux et l'acceptable commercialement.
Mercredi
8h30 - 10h15 : What is Fairness in Algorithmic Decision Making? Anaëlle Wilczynski (Central-SUPELEC Paris)
Nowadays, many important decisions are made with the help of algorithms. Guaranteeing the fairness of decision-making mechanisms that use algorithms is key to ensure people's trust in the system. However, how to define fairness is not straightforward. Fairness can encompass many different views and notions, depending on the specific decision context and desiderata. We will study how fairness is tackled in AI and, in particular, we will review some fairness concepts from (computational) social choice--research field that studies the algorithmic aspects of collective decision making--and discuss them in an axiomatic and algorithmic way.
10h45 - 12h30 : Numérique : l'insoutenable matérialité du virtuel, Sylvain Bouveret (LIG, FR)
La rhétorique habituelle associe souvent le monde numérique à l'idée du virtuel ou de l'immatériel. Nous verrons dans cette présentation qu'il n'en est rien, et que les technologies de l'information et de la communication ont en réalité un impact énorme sur l'environnement. Dans ce cours, nous tâcherons de présenter et de discuter des impacts environnementaux principaux directs et indirects de l'informatique.
Jeudi
8h30 - 10h15 : Meaningful, Useful and legitimate information Fred Roberts1 Alexis Tsoukiàs (CNRS)
(a remplacé Automatic Decisions and unmaned vehicles Juan Antonio Rodriguez Aguilar (CSIC), annulé pour raison personnelle)
10h45 - 12h30 : Explainable Decisions and Recommendations Marie-Christine Rousset (LIG, FR),
Explainability is a key aspect for acceptability by humans of decisions, recommendations or predictions computed by algorithms. In this tutorial, first, I will present the different dimensions covered by the (vague and wide) notion of explainability. Then, I will survey the existing approaches for building (local or global) explanations of decisions computed by AI systems. Finally, I will discuss the main challenges for making Explainable AI a reality through the development of intrinsically interpretable models and of robust explanation methods for machine learning models.
14h30 : Cas d'étude - Questions éthiques lors de la mise en œuvre d'un algorithme : application à l'aide à la navigation routière, Nadia Brauner, Christine Solnon, groupe éthique des GDR RO et RADIA (Fr),
L'objectif de cette étude de cas est de proposer une réflexion sur l’intégration d’enjeux éthiques lors de la conception d’un algorithme d'aide à la décision. Le cadre considéré est : un client (une entité impliquée dans le processus de décision) vous demande de concevoir un système automatisé élaborant des recommandations afin d'améliorer sa conduite dans un processus de décision. Nous avons choisi pour cette étude une application très utilisée, à savoir un logiciel d’aide à la navigation informant les utilisateurs des conditions de trafic en temps réel, et leur proposant des itinéraires entre une origine et une destination en tenant compte de ces conditions (type Waze). Au-delà de l’outil technique, les participants devront proposer des pistes de réflexions éthiques que nous approfondirons. Nous traiterons en particulier la conception d’un outil qui maximise l'utilité de chaque individu et les questions posées par cette solution pour les différentes parties prenantes. La dernière partie de l’après-midi sera consacrée à une réflexion sur l’utilisation et la mise en œuvre d’une telle étude de cas dans des formations d’ingénieurs ou de master scientifiques.
Vendredi
8h30 - 10h15 : Les algorithmes publics : enjeux sociaux d’automatisation de l’action d’État, Olessia Kirtchik (Centre Internet et Société, Fr)
(Public algorithms: social issues of the automation of the state)
Cette intervention propose une perspective sociologique sur des problèmes posés par l’introduction de dispositifs algorithmiques, en particulier ceux appuyés par l’IA, dans l’action de l’État. Parmi les domaines concernés, dont la liste s’allonge rapidement, sont la santé et l’éducation, la sécurité et la défense, la prévention de la fraude et la justice. Ces usages nous invitent à réfléchir sur les conséquences de ces usages quant aux représentations de l’État, aux modalités de son action et à la souveraineté nationale.
10h45 - 12h30 : Does AI benefits all? Technology assessment and legal perspectives, Doaa Abu Elyouness (UNESCO)
In recent years the debate about algorithmic fairness is focused on the tradeoffs of one approach over the other. It has been mathematically and legally proven that algorithmic systems cannot satisfy multiple notions of fairness simultaneously. This is why debates about AI governance often conclude by the fact that the true impact of different algorithmic society should be thoroughly assessed, in order to realize whether in aggregate the tradeoffs are justifiable. In this tutorial we will examine how we can assess the impact of artificial intelligence on individuals, on groups and on society as a whole. We will study both quantitative and qualitative tools and examine their contribution to the equation. We will unpack the role of different stakeholders in the assessment process, and debate their responsibilities in ensuring that equitable and ethical AI systems are implemented and used.