Le sexisme structurel peut également se manifester dans certaines pratiques institutionnelles.
Dans le domaine médical, par exemple, des recherches indiquent que les douleurs exprimées par les femmes sont plus souvent minimisées et qu’elles obtiennent plus difficilement des traitements antidouleur que les hommes.
Ces biais illustrent la manière dont les stéréotypes de genre peuvent influencer la prise de décision dans les systèmes de soins.
Le sexisme structurel peut également se manifester dans des domaines plus inattendus, comme les technologies numériques et l’intelligence artificielle.
Fin 2019, l’algorithme utilisé par la carte de crédit d’Apple a été accusé de défavoriser certaines femmes lors de demandes de crédit. Plusieurs utilisatrices ont affirmé avoir obtenu des plafonds nettement inférieurs à ceux de leurs conjoints, malgré des situations financières comparables.
Pour la scientifique des données Aurélie Jean, ces biais s’expliquent souvent par la manière dont les algorithmes sont entraînés. « L’algorithme a dû apprendre à partir de données bancaires du passé, parfois sur plusieurs décennies », explique-t-elle. Si les données historiques reflètent des inégalités existantes, celles-ci peuvent être reproduites dans les décisions automatisées.
La biologiste Aude Bernheim, autrice de L’Intelligence artificielle, pas sans elles !, souligne que la composition des équipes technologiques joue également un rôle. Selon elle, 88 % des concepteurs d’algorithmes sont des hommes, ce qui peut contribuer à reproduire certains angles morts dans la conception des systèmes.
Aurélie Jean insiste toutefois sur le fait que la responsabilité reste humaine : « L’algorithme n’est ni sexiste ni raciste en lui-même. Ce sont les données et les décisions humaines qui peuvent produire ces biais. »
Selon la Fondation Femmes@Numérique, les femmes représentent aujourd’hui environ 15 % des ingénieurs en informatique, un déséquilibre qui peut influencer la conception des technologies utilisées au quotidien.