Vous êtes ici :

Économie des plateformes : attention à la discrimination numérique !


Sylvie Mauris-Demourioux | 18 mai 2018 | Mots-clés entreprise discrimination numérique économie

« Lutter contre la discrimination sur les plateformes » : tel est le projet ambitieux de Raymond Fisman, professeur d’économie comportementale à l’université de Boston et Michael Luca professeur adjoint à la Harvard Business School, auteur de nombreux travaux sur la discrimination numérique.

Une discrimination favorisée par la présence de marqueurs ethniques (nom, photo...), le choix du "partenaire d'affaires" et les algorithmes.

Si dans un premier temps, les plateformes numériques sont apparues comme un espace dans lequel les pratiques discriminatoires liées à l’origine ethnique supposée ou réelle, au sexe ou à l’âge du cocontractant, pouvaient disparaître - puisque les cocontractants restaient largement anonymes-, ce n’est plus le cas comme le montrent de multiples études. Michael Luca a enquêté sur les pratiques sur Airbnb sur le marché américain (voir aussi ici pour la version académique). Il montre qu’à New York, un bien équivalent est loué 12% moins cher par les propriétaires noirs qui  anticipent la discrimination ou y réagissent. De même, une demande émanant d'une personne portant un nom associé à la population noire a 16% moins de chances d’être acceptée que celle d’une personne avec un nom associé à la population blanche et ce quel que soit le bien, le loueur, le quartier. En France, une étude franco-américaine sur Blablacar montre que les conducteurs ayant un nom à consonance arabe ou musulmane ont des taux de remplissage inférieurs de 20% aux conducteurs ayant des noms à consonance « française » tout en affichant des prix plus bas.

À l’origine de cette montée des pratiques discriminatoires, une conception des plateformes donnant de plus en plus d’informations sur les parties prenantes à l’échange. Initialement, l'idée était de minimiser l’asymétrie d’information entre les utilisateurs, source potentielle de tricherie sur l’objet de l’échange et ainsi de rassurer les utilisateurs : avis pour construire une réputation, éléments d’identité, photos, profil, mini-bio... Autant de marqueurs favorisant aussi les pratiques discriminatoires comme le souligne l'article : « Internet ne met pas fin aux discriminations : il en est une source. Leurs identités étant révélées, les groupes défavorisés se retrouvent face aux mêmes difficultés qu’ils affrontent depuis longtemps dans le monde réel, aggravées parfois par l’absence de réglementation, par la mise en avant de la couleur de la peau ou du sexe de l’usager au travers de ses photos, et par le fait que celui qui agit de manière discriminatoire peut le faire sans jamais être confronté à ses victimes en personne ».

Le paramétrage et codage des algorithmes sont aussi en causes : ces derniers peuvent se révéler plus discriminants que des opérateurs humains dont les décisions vont être encadrées par les normes sociales. La professeure d’informatique Latanaya Sweeney a mené une étude en 2013 pour montrer cette discrimination algorithmique. En cherchant des prénoms courants dans la population afro-américaine (DeShawn, Darnelln Jermaine) dans différents moteurs de recherche, elle a constaté que, dans plus de 80% des cas, les résultats étaient associés à une publicité ciblée en lien avec des arrestations (consultation de rapports, services de cabinets juridiques...). Ce pourcentage n’est que de 30% en moyenne pour des noms courants dans la population blanche (Geoffrey, Jill, Emma).

Deux principes pour être une plateforme exemplaire

  1. Les opérateurs des plateformes doivent prendre conscience que la discrimination existe et qu’il est nécessaire de quantifier et qualifier, par un suivi régulier, les espaces et les pratiques de discrimination.
  2. Les plateformes doivent s'appuyer sur leur état d’esprit expérimental pour étudier ces dérives et tester des paramétrages vertueux. Les auteurs encouragent les plateformes à conduire régulièrement des essais randomisés contrôlés, à l’instar d’Ebay qui s’est ainsi aperçu que, pour un même bien, les hommes obtiennent des prix plus élevés que les femmes.

Quatre conseils sur le design et la conception

Rappelant les auditions à l'aveugle (derrière un paravent) désormais pratiquées par de nombreux orchestres symphoniques avaient permis d’augmenter le taux de réussite des femmes de 160%, les auteurs plaident pour la mise en place de « paravents virtuels » ! Ils appellent plus particulièrement à agir sur les champs suivants : 

-Quel niveau d’information faut-il donner aux utilisateurs et à quel moment ? Plus les informations des données personnelles comme la couleur de peau ou le genre sont données tard, moins elles sont discriminantes. Est-il alors indispensable de faire figurer une photo ou un nom en amont de la conclusion de la transaction ?

- Automatiser le plus possible la transaction et rendre « coûteux » psychologiquement le comportement discriminatoire. Sur Uber, le consommateur ne voit le profil du conducteur qu’une fois la transaction finalisée. S’il veut alors l’annuler, il doit faire une procédure spéciale qui décourage a priori bon nombre de discriminations, inconscientes ou non, au faciès. Une autre possibilité est de faire de l’option la plus inclusive, l’option par défaut : par exemple la « réservation instantanée » pour les loueurs et conducteurs. Ou encore de monétiser la possibilité pour l’hôte de consulter les données du profil, en plus des avis.

- Faire de la politique antidiscrimination une priorité et communiquer sur cette démarche afin de sensibiliser les utilisateurs et plus largement l’ensemble des acteurs du secteur aux comportements discriminatoires largement inconscients. Une étude a montré que les comportements honnêtes sont favorisés lorsque la personne signe une déclaration et s'engage sur sa sincérité avant de la remplir (assurance, impôts, etc.). Afficher la politique antidiscriminatoire à chaque transaction, et pas seulement dans les conditions générales, ou faire cocher l’engagement de ne pas avoir de tels comportements en amont de chaque transaction pourrait être incitatif. De même, Airbnb pourrait rendre public les taux d’acception de ses membres aux USA en fonction de facteurs comme le genre ou l’ethnie.

- Manager les algorithmes en analysant « la manière dont  l’expérience de l’utilisateur est impactée par son ethnie, son genre et se fixer des objectifs clairs ». Suite à l’étude sur les publicités ciblées, Google réfléchit à la manière d’évoluer. Les concepteurs peuvent aussi diminuer l’impact de ces pratiques en minorant les avis des utilisateurs dont le comportement est repéré comme discriminatoire, ou encore en compensant, par un moyen ou un autre, les victimes.