- Home (France)
- Centre de connaissances
- Blog
- Le biais de genre dans les données : De conseils pour l'éviter
Le biais de genre dans les données : De conseils pour l'éviter
Beaucoup pensent les données comme « le grand égalisateur » qui règle les problèmes discriminatoires. Après tout, comment les chiffres peuvent-ils être subjectifs ? Cependant, cette idée suscite des réactions. De plus en plus de personnes se familiarisent avec les données et comprennent qu'elles peuvent ne pas être représentatives de l’ensemble de la population. Qu'est-ce qui semble le plus attrayant ? « La taille de mon entreprise a doublé » ou « J'ai embauché une autre personne » ? Pour une personne qui vient de créer son entreprise, ces deux affirmations peuvent être tout aussi vraies l'une que l'autre, mais elles donnent des images très différentes.
Parfois, l'erreur n'est pas dans la représentation, mais dans les données. Des échantillons de petite taille ou des sondages erronés peuvent entraîner un biais dans les données. Le manque de curiosité complique encore les choses. Les données récoltées sont généralement prises pour argent comptant, sans jamais chercher à connaître leur source, leur ancienneté ou la corrélation entre les variables.
Nous savons évidemment que les données biaisées sont problématiques, mais beaucoup de gens ne voient pas à quel point ce problème est répandu. En fait, il existe un énorme problème avec les données, ce qui prive systématiquement une grande partie de la population de ses droits. C'est ce qu'on appelle le biais de genre. Généralement, le pourcentage de femmes utilisé dans les échantillons de population ne fournit pas une représentation réelle des consommateurs. Au mieux, c'est un signe de mauvaise intelligence économique. Au pire, cela met les femmes en danger.
Prenons le marché automobile en exemple. Elles sont conçues pour les hommes, et nous ne parlons pas d'esthétique. Les proportions, la forme, l'ergonomie et l'emplacement des éléments intérieurs sont conçus pour s'adapter au corps masculin. Pire encore, les recherches en matière de sécurité sont basées sur les dimensions des hommes - ce qui fait que les femmes sont plus susceptibles d'être gravement blessées dans les accidents de voiture.
On peut dire la même chose de presque tous les produits sur le marché. Les smartphones sont basés sur la taille de la main d'un homme, qui est généralement plus grande. Cela peut sembler anodin, mais cela a entraîné des microtraumatismes répétés (MTR) chez certaines femmes (et d'autres populations, sans doute). Lorsque nous ne nous efforçons pas de préserver nos données de tout préjugé sexiste, nous nuisons activement à une grande partie de la population.
La prévention des préjugés sexistes dans les données
Bien que ce ne soit pas toujours une tâche facile, la prévention des préjugés sexistes dans les données est relativement simple - il n'y a donc aucune excuse pour ne pas essayer. En fait, elle ne comporte pas plus de deux étapes :
1) Reconnaître que les données sont biaisées
La première étape consiste à admettre que les données ont un problème. Les préjugés conscients et inconscients affectent tout le monde, et nos données ne font pas exception. Regardez sur internet, tapez « personne en train de cuisiner » dans un moteur de recherche, et les résultats des images sont principalement des femmes. Ce n'est pas que l'algorithme de Google soit sexiste, mais plutôt qu'il s'inspire des biais sociaux existants. Et selon les préjugés, ces images représentent principalement des femmes.
Les données sont biaisées et nous devons prendre nos responsabilités pour corriger le problème. Ne vous fiez pas aveuglément aux données. Il vaudrait mieux plutôt chercher à savoir comment les informations ont été recueillies. Si ces données ne sont pas représentées équitablement, on pourra remettre en question la recherche et envisager d'acheter les produits d'un concurrent.
Plus important encore, construisez vos équipes avec plus de soin, en particulier les équipes qui développent des modèles de recherche, collectent des données et tirent des enseignements de ces informations. Quelle est la diversité de votre équipe ? Ses membres reflètent-ils la population à laquelle les données seront appliquées ? Tout commence à l'intérieur. Comme pour les données elles-mêmes, vous voulez un bon mélange de personnes - et plus encore, un mélange des données démographiques qui utiliseront votre produit ou service.
2) Trouvez le bon échantillon de population
Les caractéristiques mesurables d'un groupe seront faussées sans la bonne population échantillon. Si vous développez un nouveau produit ou service, il est important de commencer par définir votre public cible. Qui sont-ils ? Qui est l'utilisateur visé ? Et, surtout, demandez-vous si vos propres préjugés ne vous amènent pas à négliger des segments d'audience potentiels.
Ensuite, assurez-vous d'avoir une représentation valide dans votre échantillon de population. Voilà comment éviter les préjugés sexistes - et autres préjugés, d'ailleurs - dans les données. À partir de là, il s'agit de prendre en compte l'écart-type, la marge d'erreur, etc. lors du développement et même de l'essai de votre produit ou service.
Les préjugés sexistes dans les données sont réels. Les exemples sont nombreux, et les solutions tardent à venir. Il appartient à chacun de s'efforcer de les prévenir parmi tous les autres préjugés - dans les données qui sont saisies, analysées et utilisées pour prendre des décisions concernant les produits et les services. C'est aussi simple que cela.
Chez CTG, nos services de conseil en data et analytics permettent à nos clients de relever leurs défis en matière de données. Pour découvrir comment nous pouvons aider votre organisation à maitriser vos données, n'hésitez pas à nous contacter.
AUTEUR
Michael Pilaeten
Learning and Development Manager
Echanger avec nous
Comment CTG peut vous conseiller à choisir les meilleures solutions de transformation digitale indispensables pour vos enjeux d’entreprise ?
Vous pouvez nous envoyer un message en complétant le formulaire de contact, nous vous répondrons rapidement. Vous pouvez également nous contacter par téléphone.
Les cookies de réseaux sociaux doivent être activés pour permettre le partage sur les réseaux sociaux.