L’intelligence artificielle n’est pas neutre : certains systèmes reproduisent, voire amplifient, des biais discriminatoires présents dans les données sur lesquelles ils sont entraînés. Les grands modèles de langage (LLM), par exemple, peuvent générer des stéréotypes de genre, des clichés raciaux ou des contenus homophobes.
Selon une étude de l’UNESCO publiée l’an dernier, ces biais ont des conséquences concrètes dans le monde réel, soulevant des questions éthiques et sociétales majeures.
Pour mieux comprendre ces mécanismes et leurs impacts, Marine Rabeyrin, Directrice EMEA du segment Éducation chez Lenovo et co-animatrice du groupe de travail Femmes et Intelligence Artificielle du Cercle IntereL, nous éclaire sur les biais de l'IA et les initiatives pour les réduire.
Podcast proposé par Lenovo. Contenus réalisés par les équipes de M Publicité, la régie publicitaire du Le Monde. La rédaction n’a pas participé à leur réalisation.
Hébergé par Acast. Visitez acast.com/privacy pour plus d'informations.