Conférence | IA et biais de genre | Pr. Florence Sedes

L’Ia telle que vous l’avez découverte à compter de Novembre 2022, générative et universelle, repose sur un matériau essentiel : “la (big) data” ;-)! Or, ces données, loin d’être neutres, sont les miroirs des biais, inégalités et limites des systèmes de santé qui les produisent: sous-représentation de certaines populations dans les bases de données, différences de dépistage selon le genre ou l’origine sociale, biais culturels ou religieux,…
L’IA agit ainsi comme un miroir amplificateur des biais existants : (in)consciente des biais dans les protocoles d’apprentissage des modèles, elle peut reproduire, voire renforcer, les inégalités dans les diagnostics, les parcours de soins ou l’accès aux traitements. Mais elle peut aussi vertueusement rétablir des équilibres ou témoigner d’une réalité démographique, voire incarner avec des données synthétiques.
À partir d’exemples ancrés dans l’actualité, cette conférence propose d’explorer comment les biais apparaissent dans les données médicales, comment ils se propagent dans les systèmes/plateformes d’IA, et quelles solutions et recommandations peuvent être mises en œuvre pour concevoir des systèmes d’IA plus équitables et plus fiables.
La réflexion invite à considérer l’IA non seulement comme un outil technologique, mais aussi comme l’occasion d’y voir un révélateur des structures sociales et scientifiques qui façonnent les données, en particulier de santé.
Comprendre ces mécanismes est une étape essentielle pour développer une IA responsable, capable d’améliorer l’ai de à la décision tout en limitant les risques de discrimination et d’inégalités dans les soins.