#31

Design et préjugés : concevoir avec ses biais cognitifs

Depuis une trentaine d’année, la psychologie cognitive est au cœur de l’actualité médiatique, scientifique, politique. La mécanique du cerveau est scrutée, disséquée, analysée sous tous ses angles. Comment et pourquoi nous sentons-nous parfois incité·es à mentir, surconsommer, ou adhérer à des avis qui ne sont pas les nôtres ? Quel est le rôle du design, aux interstices entre marketing machiavélique et conception centrée utilisateur ?

C’est ce que nous allons étudier ensemble dans cet épisode à travers le prisme des biais cognitifs.

Nos invité·es :

  • Stéphanie Walter, consultante en UX-Research chez Maltem et co-créatrice d’un jeu de 52 cartes des biais cognitifs.
  • Guillaume Montagu, chercheur en sciences sociales et Head of Research chez Unknowns.
  • Hubert Florin, co-fondateur de Pop et anciennement Designer chez Slack.

Au sommaire de cet épisode :

  • 01:35 • Chapitre 1 : Dans le premier chapitre, nous croisons les regards pour écrire une définition commune des biais cognitifs.
  • 08:23 • Chapitre 2 : Le deuxième chapitre prend appui sur les concepts manipulés précédemment pour les illustrer au travers d’exemples et de projets concrets.
  • 18:04 • Chapitre 3 : Le dernier chapitre nous invite à prendre un pas de recul pour questionner l’éthique dans l’utilisation des biais et imaginer les défis de demain.

Cet épisode a été réalisé par Laura Dussier et Émeline Bailleul, avec l'aide précieuse de Anthony Adam. Les voix-off sont de Loulou Hanssen.

💌 Pour ne manquer aucun épisode, inscrivez-vous à notre newsletter. Recevez aussi des bonus inédits et des ressources. S'inscrire à la newsletter

Transcription de l'épisode


Extrait de l’épisode (pré-introduction) :
« Il y a évidemment une question éthique qui est centrale dans le design, c'est de savoir par quelle valeur on va finalement agir sur l'homme. »

Depuis une trentaine d’année, la psychologie cognitive est au cœur de l’actualité médiatique, scientifique, politique. La mécanique du cerveau est scrutée, disséquée, analysée sous tous ses angles. Parmi ses sujets phares, un terme revient sur toutes les lèvres : les biais cognitifs.

Ce sont eux qui expliqueraient pourquoi nous nous sentons parfois incité·es à mentir, surconsommer, ou adhérer à des avis qui ne sont pas les nôtres. Mais qu’en est-il dans les métiers du design ? Quel est le rôle pour les designers et designeuses, aux interstices entre marketing machiavélique et conception centrée utilisateur ?

Pour mettre en perspective le sujet, nous l’étudions en compagnie de Stéphanie Walter, Hubert Florin et Guillaume Montagu.

Dans le premier chapitre, nous croisons les regards pour écrire une définition commune des biais cognitifs.

Le deuxième chapitre illustre, par des exemples concrets, les concepts manipulés précédemment.

Le dernier chapitre nous invite à prendre un pas de recul pour questionner l’éthique dans l’utilisation des biais et imaginer les défis de demain.

Vous pouvez retrouver tous nos épisodes sur notre site internet, designmasterclass.fr, et sur les plateformes habituelles : Apple Podcast, Spotify, Google Podcast.

Vous souhaitez aller plus loin ? En vous abonnant à notre newsletter, vous allez recevoir une liste de livres, ressources et des bonus. Rendez-vous sur notre site internet.

## Chapitre 1 : Biais cognitifs, vous n’avez pas les bases

Aujourd’hui, les études en psychologie cognitive recensent plus de 150 biais cognitifs, et cette liste évolue sans cesse. Stéphanie et Guillaume nous éclairent sur une définition du terme « biais cognitifs » dans son sens premier.

Stéphanie : 
« Je m'appelle Stéphanie Walter, je suis designer d'expérience utilisateur. 
Je suis spécialisée dans tout ce qui est Enterprise UX, à savoir les produits et services utilisés par des employé·es au quotidien. 
Pour moi, les biais cognitifs, déjà, on ne peut pas s'en débarrasser, il y en a plein. Ce sont des mécanismes de pensée. Il faut imaginer que notre cerveau, au fur et à mesure de la journée, prend des décisions, énormément de décisions en fait. Ce qui veut dire que si l’on devait prendre toutes les décisions qu'on prend tout au long de la journée de manière consciente, on serait très rapidement en surcharge cognitive, on ne pourrait plus rien faire. »

Guillaume :
« Alors moi, je m'appelle Guillaume Montagu, je suis sociologue de formation. 
Aujourd'hui, je dirige l'équipe de recherche dans une société de conseil en stratégie et en innovation. Je dirais que le biais cognitif, c'est ce qui nous permet de fonctionner dans notre vie quotidienne, dans la plupart des cas. 
Il y a quelque chose qui me gêne dans le mot de biais, parce qu'il y a déjà une sorte de charge un peu normative. On dit que s'il y a un biais, c'est biaisé, c'est pas droit. Ça véhicule quand même une idée assez négative d'un truc qui doit être corrigé. 
Si tu prends ce qui se fait en sociologie de la consommation ou en économie comportementale, c'est que la plupart des décisions et la plupart des actions humaines sont non réflexives, c'est-à-dire qu'on ne réfléchit pas, on ne calcule pas chacune de nos actions, elles sont la plupart du temps automatiques. Et donc en fait, dans ce cas-là, de ce point de vue-là, le biais cognitif est ultra-efficace, ultra-nécessaire : c'est ce qui permet de vivre et ce qui permet de vivre à peu près convenablement. »

Pour comprendre l’émergence du sujet, Guillaume nous propose un voyage dans le temps…

Guillaume : 
« Le biais cognitif, au départ, c'est plutôt du vocabulaire qui appartient à la discipline qui s'est mise à l'étudier : l'économie comportementale. D'ailleurs, le mot « biais » n'est pas venu tout de suite, il est venu assez tardivement comme une critique de l'économie classique. En gros, la théorie de l'économie classique te dit que les gens sont rationnels, donc ils raisonnent, et puis ils font des calculs coût-avantages, et ils prennent des décisions en fonction de ça. 
Assez rapidement, dans les années 50, un chercheur qui s'appelle Herbert Simon notamment, montre qu'on a une rationalité limitée : il n'y a pas un acteur rationnel qui a toutes les infos et qui prend les meilleures décisions à chaque fois, il prend les décisions avec les informations qu'il a, et donc, il prend les décisions qu'il peut. Ce ne sont pas forcément des décisions qui maximisent son intérêt : il raisonne, il prend des décisions avec ce qu'il a sous la main, et parfois ces décisions sont pas géniales. 
Herbert Simon souligne le caractère limité des informations qui sont à disposition, des calculs que l’on peut faire, et puis il montre qu'il y a aussi tout un tas de décisions qui ne sont pas forcément prises dans notre intérêt. 
Donc une première critique qui vient de là. Et après, il y a des chercheurs qui poursuivent et qui montrent qu'il y a même des situations où il n'y a pas que de la rationalité limitée, il n'y a pas de rationalité du tout, puisqu'il y a des décisions qui sont prises de manière quasiment automatique, non réflexives, et c'est là qu'est apparue l'idée de biais cognitifs. 
Parce que les travaux qui montrent ça ont un peu dans l'idée que, puisque ce comportement est biaisé, qu'il ne maximise pas l'intérêt, on pourrait le corriger pour arriver à maximiser l'intérêt de la personne qui prend cette décision, ou maximiser l'intérêt d'autre chose, comme par exemple de la société. »

Lorsqu’on évoque les biais cognitifs, il est indispensable d’aller à la rencontre d’autres concepts intimement liés. La théorie du nudge, aussi nommée méthode douce en français, a été développée par le prix Nobel d'économie Richard Thaler. Elle se propose d’influencer nos comportements pour le bien commun.

Guillaume : 
« Le nudge c'est dire : « Attends je vais trouver des petits gimmicks situationnels qui vont faire agir les gens d'une certaine manière pour contribuer à l'intérêt général. » 
Alors évidemment, toute la question, c'est de savoir ce qu’est l'intérêt général. Est-ce que tout le monde est d'accord là-dessus ? Qui prend cette décision ? 
À partir du moment où tu crées une intervention (parce que le nudge est une intervention), tu le fais pour changer les comportements des gens, qui plus est, sans qu'ils y aient consenti… se posent quand même la question de savoir de quel bien on parle. »

Stéphanie nous donne un exemple, issu du livre “Nudges” de Richard Thaler.

Stéphanie : 
« Dans le livre, par exemple, ils donnent l'exemple d'une cantine, et le fait de le placement des aliments dans l'ordre dans lesquels ils vont apparaître pour les gamins va les inciter à plutôt prendre des desserts ou plutôt prendre des trucs un peu meilleurs pour la santé. 
Et donc, le principe d'un nudge, c'est de se dire que je vais délicatement manipuler le placement des aliments pour essayer de pousser les gens vers quelque chose qui est pour leur propre bien. »

Cette théorie comprend cependant une limite forte : celle de la plasticité cérébrale, qui nous permet d’être en apprentissage constant.

Guillaume : 
« Le problème du nudge, c'est que ça ne prend pas en compte les effets d'apprentissage que les gens vont avoir dans le temps. C'est comme ces petits gimmicks situationnels, la première fois on se fait surprendre, on n'y réfléchit pas, et puis la seconde fois qu'on le voit on se dit « tiens, j'ai déjà vu ça », on commence à réfléchir et en quelque sorte on met à jour son mode de raisonnement. Le nudge perd alors en efficacité. »

Un autre concept connu entre en scène lorsque l’on aborde le sujet des biais cognitifs : les schémas déceptifs_, _aussi nommés dark patterns. Vous voyez cette petite case pré-cochée en fin de formulaire pour vous inciter à vous inscrire à une newsletter ? Ce sont eux.

Guillaume : 
« Le pendant de ça, c'est le dark pattern : c'est la version un peu négative du nudge. Le dark pattern, c'est celui qui mobilise à peu près la même chose, ça fait faire un truc aux gens auquel ils n'auraient pas consenti, en s'appuyant sur des mécanismes automatiques de leur pensée, mais cette fois-ci dans un intérêt privé. »

Stéphanie illustre cette pratique.

Stéphanie : 
« Un exemple typique, ça va être que si vous voulez vous inscrire à un site, c'est super facile. Si vous voulez vous désinscrire, par contre, le bouton est caché au fin fond de 72 menus et ensuite vous avez trois étapes et à la fin de la dernière étape on vous dit « mais es-tu sûr de vouloir vraiment te désinscrire, parce que quand même, tu vas beaucoup nous manquer », et on essaie de nous culpabiliser. »

Maintenant que nous partageons ces éléments de langage, observons donc certaines de ces espèces en action…

## Chapitre 2 : Observer les biais en action

À l’échelle de la société, chacun et chacune d’entre nous occupe une place qui lui est propre. C’est depuis ce poste que nous observons le monde. Cette posture peut avoir un impact fort sur nos modes de raisonnement. C’est ainsi qu’Hubert, ancien designer pour l’entreprise Slack, définit les biais.

Hubert : 
« Je suis designer d'interface. J'ai travaillé pendant plusieurs années chez Slack avant d'arriver chez Pop. 
Pour moi, les biais cognitifs, ce sont des contraintes un peu inconscientes qu'on se pose nous-mêmes, souvent juste par le fait d'être soi-même. 
Par exemple, je suis un homme blanc, donc j'aurai tendance à créer des choses pour les hommes blancs. Malgré le fait que je vais vraiment essayer de combattre ça le plus fort possible, c'est un effort que je dois fournir en plus pour corriger une inclinaison naturelle. »

Guillaume nous en dit plus sur ce phénomène, à la frontière entre biais cognitif et social.

Guillaume : 
« Les designers, ce ne sont pas des gens qui sont neutres ou représentatifs de l'ensemble de la population. Ils occupent une position particulière dans la société. 
Dès lors qu'ils occupent une position particulière dans la société, ils ont aussi un point de vue sur la société qui vient de cette position qu'ils occupent. Et à partir de là, ils peuvent avoir tendance, mais comme c'est la tendance un peu chez chacun·e d'entre nous, de concevoir et de se représenter le monde à partir de notre position et donc à finalement en quelque sorte faire du design pour des gens qui leur ressemblent. »

À l’échelle de l’entreprise, les biais peuvent intervenir de différentes façons, à différents moments. Pour Hubert, ils se manifestent à travers l’aspect culturel de son métier.

Hubert : 
« Les biais culturels, c'est vrai que c'est quelque chose de très difficile à comprendre tant qu'on n'y est pas exposé·e. Quand je suis arrivé au Canada, ou même quand j'ai commencé à travailler un peu aux États-Unis, les gens faisaient des références à des choses qui leur semblaient évidentes, ou dont moi je n'avais jamais entendu parler. 
Par exemple, c'était très simple pour eux de citer Oprah, ou des gens de la télé qu’iels voyaient quand iels étaient petit·es, et ça leur paraissait bizarre que moi, par exemple, je n’ai jamais entendu parler d'Oprah. 
Et ça, ça se retrouve vraiment inséminé partout, que ça soit de la façon dont on va représenter une icône, ou dans l'utilisation d'un emoji, c'est assez courant, et tant qu'on n'y est pas exposé, c'est vrai que c'est difficile à comprendre. »

Selon lui, c’est donc lorsqu’on se retrouve exposé·e à un contexte multiculturel que l’on prend conscience de ce biais culturel. Biais qui se retrouve d’ailleurs impliqué tout au long de la conception du produit, depuis la création d’une icône jusqu’aux notes d’humour caractéristiques de Slack.

Hubert : 
« C'est vrai que dans le texte, la façon d'écrire, comme chez Slack c'était assez important (le ton que l’on apporte à l'interface) le ton qu'on apporte au message, c'était assez courant de rencontrer une tournure de phrase ou une expression qui n'aurait pas été comprise dans une autre culture. 
Et je sais qu'il y avait un très gros travail des traducteurs d'essayer de reproduire l'intention plutôt que l’humour, même si parfois ça voulait dire oublier le fait que ça soit une blague. Ou alors, parfois, on essayait de trouver une autre blague qui aurait la même intention mais qui avec des références différentes. » 

D’autres biais nous viennent d’un lexique partagé. L’exemple-type : l’icône de la disquette pour représenter la sauvegarde. Hubert nous explique en quoi il s’agit d’un biais de représentation commun.

Hubert : 
« Pour les icônes en particulier, c'est plus rare qu’il y ait des biais, parce qu'il y a une tendance à utiliser les icônes que tout le monde comprend dès le début. 
Il y aura peut-être des biais qui vont être introduits très très tôt, mais que tout le monde adopte. Par exemple, la disquette pour sauvegarder une action : ça avait beaucoup de sens il y a 20 ans, mais maintenant on utilise souvent encore cette icône pour dire « sauvegarder », alors que plus personne n'utilise de disquette depuis des années. »

Du côté de Stéphanie, c’est dans le cadre des relations inter-professionnelles qu’elle remarque l’utilité d’avoir connaissance de nos biais.

Stéphanie : 
« C'est très pratique (entre guillemets) de connaître certains biais lorsqu’on travaille sur des projets, notamment tout ce qui va être lié aux biais d'effet de groupe, ou aux biais qui vont influencer nos stakeholders
En général, tout cela, c'est bien de s'en rendre compte, parce que ça permet parfois d'expliquer pourquoi un meeting s'est mal passé, ou pourquoi à un moment donné on a essayé de pousser quelque chose, mais ça n'est pas passé. 
Avoir, je pense, un bagage un minimum scientifique et un minimum de psychologie cognitive aide en fait pas mal au quotidien. »

De nombreux biais peuvent intervenir à l’échelle de l’équipe. C’est notamment le cas lorsqu’on tente de changer ou d’améliorer l’existant. Stéphanie nous fait part de son expérience à ce sujet.

Stéphanie : 
« Je travaille pour la Banque Européenne d'Investissement et on est en train de migrer un outil qui a été créé il y a 18 ans. C'est important, il y a 18 ans. Vous imaginez bien que certaines des personnes de la banque ont toujours connu cet outil. 
Actuellement, on est en train de le migrer vers une nouvelle technologie. Il y a un an, on voulait couper l'outil à une partie du user group, parce qu'on avait migré toutes leurs pages. Ça s'était passé pas trop mal jusqu'à ce qu'on décide d'une date de décommission de l'ancien outil. Et là, branle-bas de combat, on a dû faire face à l'effet de réactance. L’effet de réactance, c'est une réaction viscérale des gens lorsqu’ils ont l'impression qu'on les prive de leur liberté. On a aussi le fait que les gens n'aiment pas le changement, donc on fait face à un gros biais de statu-quo qui est, encore une fois, une très grosse résistance au changement. »

Hubert illustre très bien ce biais de réactance, qu’il nomme pour sa part résistance au changement.

Hubert : 
« Par exemple, en faisant des tests, on avait vu qu'au tout début, le texte d'entrée dans Slack, tout en bas, là où on écrit son message, quand on n'était pas dessus, il était vraiment presque invisible, très très très très gris clair. 
Et donc les gens, qui avaient parfois même pas des problèmes de vue mais juste un mauvais écran avec des contrastes sortis d'usine, voyait à peine l'endroit du message. 
Donc on recevait beaucoup de tickets qui disaient « mais je comprends pas comment on écrit un message » et on leur disait « mettez le texte dans la boîte de messages et puis appuyez sur "envoyer"» et la personne nous disait « elle est où ? ». Ce qui nous a permis de nous rendre compte qu’iels ne la voyaient pas. 
Très vite, lorsqu’on a changé le contraste de cette barre de texte, instantanément pratiquement toute l’entreprise (Slack, ndlt) a dit « ah non, non, c'est beaucoup trop foncé, c'est beaucoup trop gris, on voit plus que ça, ça va pas du tout. » 
Et ce qui s'est passé, c'est qu'au bout d'une semaine, les gens s'étaient habitués à cette barre. Lorsqu’on l’a remise au format de design d'avant, les gens nous disaient « ah mais non c'était pas comme ça, c'est beaucoup trop clair maintenant. » 
Se rendre compte de toutes ces petites étapes juste pour changer un petit peu de contraste dans une interface, ça permet de vraiment se rendre compte à quel point les gens sont attachés à leurs biais, à leurs habitudes et que même un changement est positif, le fait que ce soit un changement devient difficile à accepter. »

Chez les designers et designeuses, d’autres biais sont à l’œuvre. Souvent, ils sont en lien avec ce que l’on croit savoir faire, et ce que l’on croit savoir de nos utilisateurs et utilisatrices.

Stéphanie : 
« En tant que conceptrices et concepteurs, déjà, on a des biais lorsqu’on fait de la recherche. On va tout simplement avoir un biais qui consiste à penser qu'on est moins biaisé·e que les autres. Parce que « oui, moi j'ai fait de la psychologie cognitive, je sais tout ça, je suis moins biaisé·e. » En fait, non. Clairement, c'est beaucoup plus simple de voir les biais chez les autres que chez soi. 
C'est pour ça que c'est intéressant que toute l’équipe soit consciente de pas mal de biais parce que même si moi-même, je ne peux pas forcément les voir quand je vais créer un guide d'entretien ou quand je vais créer un guide pour des tests utilisateurs, si à un moment donné je donne mon guide d'entretien à un·e de mes collègues, et mon ou ma collègue est déjà au fait des différents biais, iel peut me dire « attention, est-ce que tu ne penses pas que dans cette question, par exemple, tu biaises la personne, parce que la façon dont tu l'as posée va peut-être l'induire dans cette direction-là ? ». »

Guillaume, lui, décrit aussi une typologie de biais propres à la recherche utilisateur et à la conception. 

Guillaume : 
« Je peux vous parler de quelques biais qu'on peut avoir en recherche, particulièrement qu'on voit en recherche utilisateur. On peut notamment parler des biais de confirmation, c'est-à-dire que quand on a des hypothèses ou quand on pense quelque chose, on a plutôt tendance à essayer de confirmer ce qu'on pense plutôt que de chercher vraiment comment ça marche. Donc ça c'est évidemment un biais assez majeur. »

Nous avons maintenant vu quels sont les biais à l’œuvre dans notre quotidien, qu’ils agissent au niveau de la société, de l’entreprise, de l’équipe ou des profils design
Mais, comment prendre des actions concrètes face à ces constats ? Lesquelles prioriser ? Ce sont les questions que nous abordons dans le dernier chapitre.

## Chapitre 3 : Construire une éthique personnelle

Concevoir, c’est agir sur le monde. Selon Guillaume, l’éthique est donc centrale dans le travail de design.

Guillaume : 
« Il y a quelque chose que je trouve très intéressant dans le design. Il y a une définition qu'on attribue à Humberto Maturana, le cybernéticien, qui dit que le design, c'est une conversation à propos de ce qu'on considère avoir de la valeur ou pas. 
À partir de là, si tu admets cette définition du design, tu te dis que toi, designer, tu vas façonner et concevoir quelque chose qui va changer la vie des gens, donc qui va arriver dans le monde réel alors qu'il n'existait pas avant, qui va donc être une intervention, et que cette intervention va changer le monde. Parfois à petite échelle, parfois à grande échelle, mais il y a quand même cette idée d'agir sur le monde. 
Et forcément, cette action sur le monde, elle se prend à partir de valeurs, parce que tu vas essayer de faire changer le monde vers ce que toi tu considères comme ayant le plus de valeur. Ça peut être pour des motivations philosophiques, des croyances, des valeurs… Mais ça peut aussi être pour des motivations économiques, parce que quand tu es designer et que tu bosses pour un agent économique, une grande entreprise ou quelque chose comme ça, forcément, le design n'est pas complètement gratuit. Il est évidemment lié aux objectifs économiques de cette entreprise-là, et ça oriente donc forcément ton action de designer. »

Dans le secteur de la vente, l’utilisation des biais est monnaie courante. L’éthique de la démarche est à bien des égards questionnable. Stéphanie évoque une différence prégnante entre e-commerce et UX Enterprise. D’un côté, le biais entre dans une dynamique business, dans l’autre, il la dessert.

Stéphanie : 
« Je pense que lorsqu’on travaille sur certains produits ou services numériques, il y a certaines industries où à mon avis on utilise plus de biais que d'autres. Typiquement, dans nos exemples pour la formation (ndlt. qu’elle donne avec Laurence Vagner), on utilise Booking. Si tu vas sur Booking, sur la page d'accueil, il y a énormément de techniques de manipulation : il ne reste que deux hôtels, un truc en rouge, des machins qui défilent. Donc je pense que quand on est dans de la vente et l'e-commerce comme chez Amazon, ils ont énormément d'utilisation de biais sur leurs pages aussi. On a plus à mon avis tendance à utiliser des biais dans la conception d'interface parce qu'on veut essayer de vendre quelque chose à des gens. Quand on est comme moi dans des univers plus orientés entreprises, je vais pas essayer de vendre quelque chose à mes utilisatrices et mes utilisateurs, mais c'est quand même super intéressant d'être au fait de ces biais-là parce que ça me permet d'expliquer pas mal de réactions que je vois au quotidien et de garder un minimum d'énergie pour éviter de me dire constamment « mon Dieu mais c'est trop horrible, j'ai encore quelqu'un qui m'a dit qu'il n'arrivait pas à naviguer, on a tout loupé… ». En fait, non, ce n'est pas si terrible que ça et grâce à notre connaissance des biais, on peut toujours y faire quelque chose. »

De son côté, Guillaume questionne les limites de cette notion d’éthique.

Guillaume : 
« La question, c'est surtout de pouvoir réfléchir à la finalité de ce qu'on fait. 
Parce que tu vois, quand on parle de nudge ou de dark patterns, en fait, on parle encore surtout du dispositif de design. En disant que telle façon de faire, c'est un dark pattern, et c'est que c’est donc fondamentalement mauvais, parce que ça fait faire un truc auquel les gens n'ont pas consenti, on est en train de dire qu'il y a une pratique qui est mal ou qui est à éviter. 
Il y avait un exemple dont on a discuté à l'UX Camp Flupa à Grenoble, à l'automne dernier. Il y avait un type qui présentait différents dark patterns sur l’un des ateliers dans lesquels il intervenait. Il en avait toute une litanie, et il y avait des exemples qui étaient assez intéressants. Il montrait notamment un dark pattern pour regarder une page de publicité entièrement avant de pouvoir continuer de jouer. Donc tu te dis, les mecs ont utilisé un dark pattern pour faire un truc auquel les joueurs n'ont pas consenti. 
Mais tu ne peux pas t'empêcher de penser que, finalement, qu'est-ce que ça a vraiment coûté à l'utilisateur, ce truc-là ? Le joueur peut jouer à son jeu gratuitement, il a perdu 30 secondes de son temps, tu peux très bien penser que c'est inadmissible, mais tu peux te dire aussi qu'il y a bien pire dans le monde. Ça permet à la boîte de continuer sur ce modèle économique et de permettre aux gens de continuer à jouer gratuitement. Donc là, tu vois, tu as l'utilisation d'un dark pattern qui, en quelque sorte, a finalement un effet anecdotique. Dans ce cas-là, je ne peux pas complètement m'empêcher de penser que ce n'est pas inéthique. »

Face à ces constats, comment se forger une opinion sur le sujet ? Comment composer avec nos biais ? 

Chez Slack, déboulonner les biais de conception est d’abord passé par le support utilisateur, comme nous l’explique Hubert.

Hubert : 
« L'intention, c'était de faire en sorte que tout le monde comprenne la façon dont les utilisateurs utilisaient Slack, parce que nous étions biaisé·es par notre propre utilisation de Slack, qui était évidemment était très conséquente. Très vite, en tant qu’employé·es, on prenait des habitudes, on savait comment utiliser les emojis, on savait comment utiliser les liens… Mais il fallait qu'on soit constamment vigilant·es au fait qu'il y ait des gens qui ne comprenaient pas comment utiliser les choses les plus simples que nous utilisions tous les jours. 
Donc ce qu'on faisait, c'était qu'on prenait une journée dans la semaine, n'importe laquelle, on avait le choix, où on se mettait sur l'application qu'on utilisait pour gérer les tickets de support utilisateur (à l'époque, c'était Zendesk). Et on passait une journée à prendre des tickets et à essayer d’y répondre. C'était assez intéressant de voir à quel point la compréhension globale de l'entreprise par rapport aux problèmes des utilisateurs était assez profonde. »

De son côté, Stéphanie a créé un atelier sur les biais cognitifs en collaboration avec Laurence Vagner. Elle détaille l’objectif de cette démarche.

Stéphanie : 
« L'idée, pour essayer de mitiger ces biais parce qu'on ne peut pas les retirer complètement, c'est de se dire : si mes équipes sont au courant de plein de biais, elles pourront essayer de voir quand il y a des biais à l’œuvre pendant la passation de la recherche utilisateur ou même déjà quand on va créer les scripts
C'est pour ça qu’on avait créé un jeu de cartes avec Laurence Vagner (UX-Designer également, ndlt.). On a sélectionné 52 cartes qui sont des biais qui impactent les designers / designeuses et chercheurs / chercheuses pendant la phase de conception, mais aussi pendant la recherche utilisateur ou les réunions. 
Le principe de ce jeu de cartes, c'est qu'on a un petit atelier qui va avec, où le but est vraiment de prendre tout le monde dans son équipe, et de leur faire comprendre et prendre conscience des biais qu'on peut avoir ou qu'on peut induire. 
En général, c'est un atelier en trois phases. Moi, j'ai une présentation au début de « Qu'est-ce qu'un biais ? » On donne quelques exemples. À partir de là, les gens en connaissent déjà quelques-uns grâce à la présentation. 
Ensuite, on met les personnes en groupes et on distribue les cartes. Chaque groupe a un nombre de cartes. Et le but pour eux, c'est d'essayer de trouver des exemples concrets des différents biais. L'idée, c'est que quand on a des exemples concrets, en général, c'est beaucoup plus simple de mémoriser quelque chose et de le comprendre. Après, en général, on leur demande d’en choisir quelques-uns et de faire une restitution. On a donc différents groupes qui vont présenter leurs biais préférés. À partir de là, tout le groupe de l'atelier connaît en général 10 ou 15 biais. 
À côté de ça, on a un aide-mémoire en ligne avec les autres cartes, donc les gens peuvent toujours les consulter. Ça, c'est la phase un peu découverte, apprentissage. 
Ensuite, dans l'atelier, on a une deuxième phase un petit peu plus ludique où on dit aux gens d'être démoniaques. On leur donne une thématique et on leur demande de créer l'expérience la plus manipulatrice et la plus biaisée possible. C'est un peu la course à essayer de mettre le plus de biais possible dans son expérience. 
En général, ça part très loin, ça devient un peu farfelu des fois. Mais l'idée c'est vraiment ça, c'est de voir jusqu'où on peut aller si on veut manipuler. Dans notre cas, c'est plus sur de la conception, mais ça peut être aussi sur des cas de réunions pour leur permettre de voir jusqu'à où est-ce qu'on peut aller en utilisant ces biais à « mauvais escient ». En général, c'est plutôt fun, il y a une restitution, on compte le nombre de biais de chaque groupe. Souvent, quand c'est en présentiel, on ramène un petit cadeau pour le groupe qui a été le plus machiavélique. Et à la fin, on termine par une discussion sur l'éthique, parce que c'est bien sympa d'être super machiavélique et d'essayer de manipuler les gens, mais bon, la vraie question, c'est où est la limite sur un vrai projet ? Est-ce qu'on va aller jusque là ? »

Stéphanie et Guillaume reviennent respectivement sur la nécessité de se construire une éthique personnelle en questionnant nos pratiques et nos envies. À chaque personne ses choix propres, inhérents à son contexte de travail, sa culture et ses valeurs.

Stéphanie : 
« A chaque personne ses choix propres, inhérents à son contexte de travail, sa culture et ses valeurs. C'est quelque chose qui, à mon avis, se construit tout au long de sa vie. Après, si ça intéresse les gens, il y a pas mal de frameworks et de templates qu'on peut utiliser autour de la conception éthique. Il y a eu énormément de recherches sur le sujet. 
Mais après, je pense que c'est aussi essayer de comprendre quelle est son éthique personnelle, et quelle est l'éthique du client ou de l'entreprise pour laquelle on travaille. 
Par exemple, il y a énormément de gens qui disent « Oui, mais si tu travailles pour Facebook et qu'ils font des trucs horribles, il faut les quitter. » Parce que souvent on se dit « Les gens qui travaillent pour Facebook ont à peu près la même éthique que Facebook. » Or, je ne suis pas convaincue : je pense qu'il y a des gens qui travaillent pour Facebook parce que ça fait joli sur leur CV ou alors qu'ils n'ont pas vraiment le choix. 
Il faut se dire aussi qu’en général, on a tendance quand même à essayer de travailler pour des entreprises où on est plutôt aligné·es d'un point de vue éthique. C'est vraiment plus un compas et un curseur personnel. 
Après, au bout d'un moment, le problème c'est que même si on a une éthique personnelle, derrière on a peut-être des gens de différents départements qui vont pousser à faire des choses pas super éthiques. Et puis c'est pareil, c'est un peu le problème avec ce dont on on parlait au début avec les deceptives patterns : ça n'est pas illégal. Et en fonction de la personne avec laquelle on va discuter, peut-être qu'un·e designer va nous dire « Moi, j'ai aucun souci à cacher un bouton de désinscription super loin et à ajouter plein d'étapes pour que les gens ne se désinscrivent pas. ». 
Ensuite, je pense qu'il y a aussi une question d'incentive. Typiquement, ce n'est pas trop le cas en France, mais il y a des endroits où les designers ont une partie de leur salaire en stock option ou ce genre de choses. Si, à un moment donné, le salaire est dépendant des revenus d'une entreprise, si j'ai le choix entre utiliser quelque chose qui n'est pas trop éthique mais qui va augmenter les ventes ou ne pas l'utiliser, la question risque de se poser. »

Guillaume : 
« L'éthique personnelle, évidemment, je pense qu'elle est très importante chez le ou la designer parce que dans le design, il y a évidemment une question éthique qui est centrale. C'est de savoir quelle valeur on endosse et par quelle valeur on va finalement agir sur le monde. Partant de là, tu as ce mécanisme qui existe (les biais cognitifs), et tu te dis « Ah ben c'est chouette, ça veut dire qu'en fait j'ai un moyen de faire changer de comportement assez rapidement. » 
Donc avec des avantages, c'est que ça prend bien place en situation, avec des limites, c'est que du coup ça résiste assez peu avec le temps aux effets d'apprentissage, quand les gens ils sont faits avoir une fois, deux fois, au bout d'un moment ils apprennent, et ça perd en efficacité. Ça, c'est déjà un premier élément à prendre en compte. 
Je pense que pour se construire une éthique personnelle c'est pas mal, déjà, de savoir quel est vraiment le champ ou la portée de l'intervention que tu vas faire. Quand tu es _designer _et que tu fais du nudge ou du dark pattern, tu sais que forcément un utilisateur au bout d'un moment il va apprendre, donc c'est quelque chose qui va marcher sur une première utilisation, une deuxième utilisation, sur un moment d'inattention, mais qui va pas marcher beaucoup plus loin que ça. »

La conclusion que l’on peut en tirer, c’est que l’éthique est un sujet personnel. 
D’après nos invité·es, construire une éthique personnelle reposerait donc une bonne connaissance de nos valeurs, de notre écosystème et des biais cognitifs. Guillaume nous propose d’aller plus loin en questionnant la limite-même du sujet.

Guillaume : 
« On oublie un truc, c'est que la plupart des biais cognitifs ont été identifiés par une recherche en économie comportementale qui est majoritairement Nord-américaine et qui prend place dans des universités américaines de la Heavy League, dont la plupart des travaux se font sur des expérimentations de laboratoire avec des étudiantes et étudiants de ces facs là. 
Donc on pourrait questionner la généralité de ces biais-là, leur universalité : est-ce que ce sont vraiment des biais qui concernent tout le monde, par delà toutes les sociétés, leur structuration, leur culture, etc. ? Sachant qu'évidemment, par des effets de sélection bien connus, les étudiant·es de ces universités sont majoritairement des hommes ou des femmes blanches issu·es de catégories socio-économiques favorisées aux États-Unis. 
Ce qu’on en peut tirer, c'est que ce sont des biais de ces populations-là. Après, difficile de savoir s'ils sont applicables de la même manière, décontextualisés, à l'autre bout du monde, pour des personnes qui sont issues d'une autre culture. Ça n'a jamais été démontré. »

Si l’on prend encore plus de distance, demain, des IA pourront débiaiser nos discours, nos pensées ou encore nos inspirations. Quel avenir nous attend face à ces nouveaux outils numériques ?

Stéphanie : 
« Les IA qu'on a aujourd'hui, comme ChatGPT / OpenIA, sont entraînées sur des données comme des articles, des photos, des vidéos, d'images, qui ont été générées par des humain·es à la base. 
Humain·es qui sont biaisé·es, donc ça veut dire qu'on va entraîner des machines sur un dataset qui est déjà biaisé. Il y a eu énormément de choses qui ont été déjà écrites sur le fait que les IA sont sexistes et racistes, notamment tout ce qui est Midjourney et toutes les IA qui permettent de générer des images, ou si on demande de générer un docteur, sans préciser le genre, ça va être forcément un homme, si on demande de générer une nurse en anglais (infirmière, infirmier), ça va être plutôt une femme. 
On sait donc déjà qu'en fait toutes ces IA sont juste un reflet d'une société complètement biaisée. J'avoue que ça me fait un peu peur parce qu'aujourd'hui on a des gens qui écrivent des articles en se basant sur ChatGPT qui se basent sur déjà des articles biaisés. 
Je me suis amusée avec ChatGPT justement : je suis en train d'écrire ce très gros article sur les biais cognitifs et je me suis dit « Comment est-ce que ChatGPT gère les biais cognitifs ? » et je lui ai donc demandé plusieurs fois des exemples de certains biais très spécifiques.

Le truc avec les biais cognitifs, c'est qu'il y en a certains qui sont très proches l'un de l'autre. Typiquement, le biais de courtoisie versus le biais de désirabilité sociale sont très proches.
Le biais de désirabilité sociale, c'est ce le fait de dire « Je ne bois pas beaucoup d'alcool » à quelqu'un qui va poser la question dans un entretien parce que si j'avoue que je bois beaucoup, je paraîtrai moins socialement acceptable que ce que je suis. 
Le biais de courtoisie, c'est plutôt d'essayer d'être sympa avec la personne qui va poser les questions, donc si on a eu un truc à ne jamais faire, c’est de poser la question « Est-ce que vous aimez l'interface ? ». Même si vous ne l'aimez pas, vous allez avoir tendance à répondre « oui » parce que vous ne voulez pas vexer la personne. 
Ces deux biais sont très proches et peuvent agir en même temps. Donc je me suis amusée à demander un exemple de biais de courtoisie à ChatGPT, et il m'a sorti un biais de désirabilité sociale. Je me dis : « Moi je l'ai vu, mais quelqu'un qui ne connaît pas la subtilité entre les deux, il se dit bah vas-y, l'exemple il est bon. » Donc si je ne connaissais pas la subtilité entre les deux et que j'avais utilisé cet exemple pour mon article, en fait, j'aurais utilisé un exemple qui est faux. 
J'ai essayé plusieurs biais, et puis au bout d'un moment, je me suis rendue compte que c'était tout le temps la même chose : les exemples n'étaient pas très pertinents et il y a énormément de biais que ChatGPT n'arrive pas à différencier les uns des autres. 
Du coup, je le corrigeais à chaque fois, et au final je n’ai quasiment rien réussi à avoir comme exemple pertinent. Le truc très drôle, c'est que je pouvais visualiser les données qui avaient été entrées dans les datasets… Par exemple, pour le biais d'ancrage, le seul exemple qu'il a été capable de me donner, c'est l'exemple monétaire (avoir différents prix dans une grille tarifaire, dont un prix faible qui est masqué, deux intermédiaires et un prix fort, qui nous force à choisir celui du milieu, ce que voulait l’entreprise). Il y a énormément d'autres exemples qu'on pourrait donner sur un biais d'ancrage. 
Je me dis donc qu’on a des IA qui sont entraînées sur des articles qui ont pas l'air forcément très précis, qui vont recracher des trucs tout aussi imprécis. En plus, on sait que les IA hallucinent dans le sens où elles créent des choses qui sont pas vraies mais qui leur semblent vraies, parce qu'au final, ces modèles-là sont basés sur le langage. C'est un peu comme quand on joue à « complète cette phrase » avec le clavier de son téléphone. Peut-être que les nouveaux modèles vont évoluer, mais jusque-là ChatGPT essayait de deviner quel était le mot suivant qui avait le plus de sens dans la phrase. 
C'est super intéressant de jouer avec, mais ce qui m'embête, c'est qu'il ne cite pas ses sources. Je crois que la nouvelle version est censée le faire, ce qui devrait résoudre quelques petits problèmes. 
Après, si on commence à voir des articles écrits avec ChatGPT qui vont citer des sources d'articles écrits avec ChatGPT, on va finir avec une espèce de dilution progressive. 
Donc je me dis qu’entre cette dilution progressive et le fait que de toute façon, les IA sont déjà entraînées sur des données complètement biaisées, ça n’est pas prêt de s'améliorer. »

Pour Guillaume, la problématique se pose également. 

Guillaume : 
« Je pense qu'une question qui est assez importante, c'est : est-ce que absolument tout dans le monde réel peut vraiment se numériser ? Je te donne un exemple. Moi, j'ai vu des mécaniciens qui diagnostiquaient des pannes à partir de la texture de la graisse sur certaines pièces. Et là, tu peux te poser la question, mais quel capteur numérique est capable de retrouver cette sensation et cette précision-là ? »

Ça serait donc la sensibilité de l’espèce humaine qui nous maintient en vie. 
Nous, nos biais, notre plasticité cérébrale et notre inclinaison à vivre de nos préjugés.
Et si questionner nos biais nous rendaient un peu meilleur·es ?


Abonnez-vous