PUNCH saison 5, épisode 3
Une croyance prédomine selon laquelle toute technologie est neutre par nature. De ce fait, le résultat de recherches par algorithme est considéré comme optimal, objectif, impartial. Mais un algorithme est déterminé par les éléments de la formule qui définit ce qu’il va aller chercher. Plusieurs études récentes ont démontré différents biais récurrents des algorithmes actifs sur les plateformes numériques. Ce sont en fait des « boîtes noires » à l’origine de biais « genrés », biais racistes… C’est quoi un « biais » ? D’où ça vient ? Comment s’en prémunir ?
Avec Peggy Pierrot, activiste, journaliste et développeuse. Elle enseigne la théorie des médias et de la communication à l’Erg.
Envie de voir la vidéo ? C'est par ici !
PUNCH, les podcasts du collectif « Pour un numérique Critique et Humain »
En partenariat avec ACMJ, Centre Librex, Cesep, cfs.EP, Culture & Démocratie, Gsara, La Concertation, La Maison du livre, PAC, PointCulture, Revue Nouvelle.
Cet article fait partie du dossier PUNCH | Pour un numérique critique et humain.
Dans le même dossier :