Rhétorique numérique et modèles persuasifs fallacieux

Plan de l'article

 

Auteur

Emmanuelle Caccamo

CACCAMO Emmanuelle

Professeure en études sémiotiques
Département de lettres et communication sociale
Directrice du
Cygne noir, revue d'exploration sémiotique
Membre du
CELAT | Centre de recherche Cultures - Arts - Sociétés
 
Université du Québec à Trois-Rivières
3351, boul. des Forges, C.P. 500

Trois-Rivières (Québec) G9A 5H7
Canada

 

Citer l'article

Caccamo, E. (2023). Rhétorique numérique et modèles persuasifs fallacieux. Revue Intelligibilité du numérique, 4|2023. [En ligne] 
https://doi.org/10.34745/numerev_1923

 

 

RésuméCet article tâche en premier lieu de définir ce qu'est la rhétorique procédurale en regard des travaux sur la rhétorique numérique. Décrivant trois grandes orientations de ce champ d'étude (esthétique, argumentative et critique), il explore la responsabilité critique des études en rhétorique procédurale avec la notion de « fallacie ». Poursuivant les travaux de Bogost, ce texte propose une lecture rhétorique d’un phénomène très actuel mais qui a fait l’objet de peu d’écrits en français : les techniques de persuasion manipulatoires dans le langage interactif humain-machine et les « fallacies prodécurales » dont les fameux modèles de design obscurs (« dark patterns ») font partie. Il propose de répertorier un ensemble de figures interactives dites fallacieuses.

Mots-clés : numérique, dark patterns, rhétorique, figures interactives, fallacies, rhétorique procédurale.

 

Abstract : This paper studies procedural rhetoric versus digital rhetoric. Describing three main orientations of this field of study (aesthetic, argumentative, and critical), it explores the critical responsibility of procedural rhetoric studies with the notion of "fallacy." After Bogost's work, this text presents in French a rhetorical reading of manipulative persuasive techniques in human-machine interactive language, "procedural fallacies", and “dark patterns”. 

Keywords : digital, dark patterns, rhetoric, interactives tropes, fallacy, procedural rhetoric.

 

Introduction

Le développement du langage humain-machine et du webdesign ainsi que l’évolution des modèles économiques en ligne ont fait émerger de nouvelles formes de stratégies et de figures de rhétorique de type interactif. Comme les figures verbales et les figures visuelles, les figures interactives, généralement à base de clic, peuvent contribuer à persuader les individus de modifier leurs comportements et leurs habitudes (Fogg, 2003 ; Bogost, 2007 ; Eyal et Hoover, 2018). Elles font partie des discours portés par les dispositifs numériques qualifiés par quelques chercheurs de « technologies persuasives » (Fogg, 2003 ; Foulonneau et al., 2015 ; Bastien et Calvary, 2019). Si certaines figures interactives sont strictement esthétiques, renouvelant les formes ornementales les plus anciennes (Paquin, 2006), d’autres donnent corps à une idéologie particulière et contribuent à faire accepter aux utilisateurs des thèses argumentatives plus ou moins explicites. Selon le contexte, les moyens employés pour faire admettre la thèse propre au schéma argumentatif mis en œuvre ne sont pas toujours moraux et rationnels, certaines figures interactives étant sciemment employées pour manipuler les internautes. On peut déjà ici donner l’exemple de techniques telles que les modèles de design obscurs (« dark patterns »), repérés par Brignull (2010) et intégrés à certaines plateformes dans le but bien étudié de tromper les destinataires. Ces modèles de design ont été créés pour inciter les utilisateurs et utilisatrices à réaliser des actions involontaires et non désirées sur l’interface au profit de l’économie de la plateforme (Bösch et al., 2016, p. 239). Dans la sphère du langage humain-machine, ces « nouvelles » figures de rhétorique peuvent être appréhendées comme les outils d’une « nouvelle sophistique » lorsqu’elles sont utilisées pour duper, leurrer ou abuser les utilisateurs. Souvent peu remarquées, se faisant passer pour autre chose qu’elles-mêmes, ces figures posent de nombreux défis à l’éducation aux médias et à la littératie numérique.

Sur les fondements des études rhétoriques et des études sémiotiques d’orientation pragmatique, cet article propose de répertorier et de discuter des dispositifs rhétoriques fallacieux employés par les plateformes socionumériques. Poursuivant les travaux entamés sur le sujet, il vise à rassembler, en langue française[1], les propositions théoriques concernant cette forme rhétorique, à explorer comment cette dernière prolonge et renouvelle les techniques rhétoriques fallacieuses. Pour reprendre une idée de Douglas Eyman, il reste encore du travail aux spécialistes en rhétorique et en sémiotique pour repérer les sophismes de l’âge numérique (Eyman, 2015, p. 63). Cette contribution constitue un pas dans cette direction.

Dans une première partie de l’article, je reviendrai sur ce qu’on appelle rhétorique procédurale et sur les trois orientations qui la caractérisent. Ce faisant, j’aborderai la notion de « fallacie procédurale ». Dans la deuxième partie, je présenterai différents modèles interactifs que l’on peut considérer comme fallacieux.

De la rhétorique générale à la rhétorique procédurale

Les études en rhétorique numérique se sont longtemps contentées d’appliquer les approches de la rhétorique plus traditionnelle aux nouveaux médias, sans tenir compte des spécificités sémiotiques de ces derniers (Zappen, 2005; Bogost, 2007; Eyman, 2015).  Les études en rhétorique et en sémiotique des dispositifs numériques se sont surtout intéressées aux textes ou aux signes selon une perspective textualiste. Comme l’écrit Ian Bogost, « de nombreux efforts pour lier les ordinateurs et la rhétorique ne font même pas appel à la rhétorique visuelle, demeurant à l’inverse fermement ancrés dans le cadre de la rhétorique verbale et écrite […] » (Bogost, 2007, p. 25, trad. libre). Parmi les efforts pour penser l’évolution des formes rhétoriques en regard des « nouveaux médias », les travaux de Ian Bogost nous apparaissent comme étant les plus solides. Ils poursuivent les travaux sur la question, notamment ceux de James Zappen pour lequel il est nécessaire d’expliquer comment la rhétorique plus classique et les stratégies persuasives sont reconfigurées avec le numérique (Zappen, 2005). L’idée de « rhétorique procédurale » proposée par Bogost naît d’une véritable nécessité, celle d’identifier les spécificités rhétoriques propres au langage interactif humain-machine. Le chercheur en études vidéoludiques propose alors de voir une rhétorique procédurale à l’œuvre dans toutes formes de procédures visant à persuader les individus. Si l’on conçoit assez bien que l’orateur et l’écrivain usent de rhétorique verbale, que l’affichiste et le cinéaste emploient la rhétorique visuelle et audiovisuelle, il est facile de comprendre que le webdesigner manie la rhétorique procédurale : «La rhétorique procédurale est une technique pour fabriquer des arguments avec des systèmes computationnels […] tout comme la rhétorique verbale est une technique qui utilise l’art oratoire de façon persuasive et la rhétorique visuelle, les images pour persuader. »  (2007, p. 3 et 28, trad. libre)

Avec Bogost, il faut défendre l’idée que les outils en sémiotiques et rhétoriques verbale (orale et écrite) et visuelle ne sont pas suffisants pour rendre adéquatement compte des propriétés de l’expression procédurale (p. 29). Ceux de la rhétorique audiovisuelle (grammaire filmique, etc.) ne le sont pas non plus.

Bien sûr, étudier la sémio-rhétorique des plateformes numériques, à l’exemple des plateformes socionumériques, doit prendre en compte les outils traditionnels (signes verbaux, visuels, audiovisuels), car, faut-il le rappeler, le langage des nouveaux médias hérite de formes culturelles plus anciennes, allant de l’imprimé au cinéma (Bolter et Grusin, 1999; Manovich, 2010 [2001]).

Si, comme le rappelle Bogost, toute procédure n’implique pas forcément un ordinateur et que la rhétorique procédurale peut s’intéresser à des objets non informatiques (par ex. à des procédures administratives traditionnelles), dans le cadre de cet article la définition de la rhétorique procédurale sera restreinte aux procédures computationnelles impliquant un langage interactif humain-machine.

À partir de la proposition de Bogost, on peut considérer que la rhétorique procédurale recouvre, comme la rhétorique plus traditionnelle, au moins trois grandes orientations poreuses que nous résumerons : une orientation esthétique, une orientation argumentative et une orientation critique. Après avoir présenté succinctement les deux premières orientations et ainsi situé mon propos, j’explorerai davantage l’orientation critique pour aborder les « fallacies procédurales » en contexte numérique. Mon objectif n’est pas d’analyser un à un les différents modèles interactifs fallacieux identifiés, mais plutôt de répertorier un ensemble de figures à la lumière des travaux sur le sujet.

Orientation esthétique de la rhétorique procédurale

Puisque la rhétorique traditionnelle renvoie en tout premier lieu à l’art de bien parler, à l’art de s’exprimer de façon éloquente et à l’emploi de figures d’ornementation, les études en rhétorique procédurale sont censées s’intéresser à la dimension esthétique et stylistique de la mise en forme des énoncés. Sur ce plan, une part des études en rhétorique procédurale peut s’intéresser aux figures d’ornementation procédurales et aux reconfigurations de figures plus classiques au sein des procédures interactives. Louis-Claude Paquin, par exemple, a proposé un répertoire de « figures interactives » plus ou moins ornementales (Paquin, 2006, p. 499). L’auteur y répertorie des dizaines de figures, par exemple la figure du dévoilement (un élément est dévoilé au passage de la souris) et la figure de la mise en évidence (un élément attire l’attention de façon affordante, pour suggérer qu’un espace peut être exploré). La tentative de Paquin est louable et ambitieuse, mais le répertoire gagnerait à être revisité pour gagner en clarté.

Bogost propose quant à lui de parler indistinctement de « figures procédurales » et de « tropes procéduraux » ayant des points communs avec les figures classiques telles que les métaphores et les synecdoques. Il écrit : « De la même manière qu’il y a des figures littéraires et filmiques, il y a des figures procédurales » (Bogost, 2007, p. 12, trad. libre). La définition qu’il en propose est cependant très large : « Les tropes procéduraux prennent souvent la forme de modèles d’interaction communs. Des éléments d’une interface graphique peuvent être conçus comme des tropes procéduraux, à l’exemple de la barre de défilement (scrollbar) ou du bouton cliquable. » (Bogost, 2007, p. 13). Chez l’auteur, les éléments graphiques interactifs s’apparentent à des figures procédurales. Il s’agit effectivement d’éléments reconnaissables propres au langage des interfaces humain-machine (IHM), mais on peut questionner leur statut de trope, car si toutes les formes reconnaissables, présentant une affordance, et qui sont propres au langage des interfaces sont considérées comme des tropes, alors l’analyse tropique n’est plus intéressante (si tout est trope, rien n’est trope). Bien qu’il reste encore du travail à réaliser sur les figures en rhétorique procédurale sur le plan esthétique, il existe certains répertoires d’intérêt présentant des typologies de figures d’interactivité (voir par ex. Fourmentraux, 2010 ; NT2, 2022) et de gestes interfacés (Weissberg et Barboza, 2006) ainsi que des recherches sur les métaphores employées par les interfaces.

Orientation argumentative de la rhétorique procédurale

La rhétorique générale est une technique discursive à visée persuasive, développant un schéma argumentatif, et donc une thèse et des arguments. Elle vise à faire adhérer les interlocuteurs à un message ou plus largement à une thèse. Pour Bogost, en rhétorique procédurale les arguments ne sont pas uniquement construits dans des mots ou des images, mais résident dans des règles de comportement qui se trouvent écrites dans le code du programme (Bogost, 2007, p. 28‑29). C’est donc dans l’interaction avec la machine, en réalisant une suite d’actions sur l’interface, que l’interlocuteur se verrait persuadé de la thèse plus ou moins explicite qui lui est présentée. D’un point de vue sémiotique, la vision de Bogost est pertinente, mais à condition de prendre aussi en compte tous les signes (visuels, sonores, verbaux, etc.) qui composent l’énoncé interactif.

Certaines interfaces sont persuasives, et les études en rhétorique procédurale ne sont pas les seules à en faire l’examen. Développées à la fin des années 1990 par Brian Jeffrey Fogg (1997, 1998, 2003), chercheur en sciences comportementales, les études en captologie (abréviation de Computers As Persuasive Technologies) s’intéressent aussi à cet objet. Cependant, rhétorique procédurale et captologie ne doivent pas être confondues ; leurs prémisses sont très différentes. De son côté, la captologie est définie comme l’étude de l’interaction humain-machine pour changer les attitudes ou les comportements des individus (2003, p. 15). Elle étudie les stratégies impliquant des technologies persuasives pouvant, par exemple, intégrer les incitatifs comportementaux numériques (digital nudges). Les travaux se concentrent ainsi sur « le design, la recherche et l’analyse de productions informatiques interactives créées dans le but de changer la pensée, les attitudes et les comportements des personnes. »  (Fogg, 2003, p. 5, trad. libre) Bien qu’il faille reconnaître que l’idée de technologie persuasive en soi est pertinente, la captologie, telle que définie par Fogg, ne constitue pas un fondement intellectuel solide pour les études rhétoriques du numérique, et c’est pour cette raison qu’elle me semble devoir être écartée par les études en rhétorique procédurale. La notion de persuasion sur laquelle repose la captologie pose en effet problème : la persuasion interactive est conçue comme étant opposée à la coercition et à la tromperie : « La coercition et la tromperie par les ordinateurs sont des sujets en soi, mais ils ne sont pas couverts par la captologie parce qu’elles ne dépendent pas de la persuasion » écrit Fogg (p. 15). Cette proposition nie ainsi les formes de persuasion manipulatoire ou de persuasion négative. L’auteur conçoit également que toute forme de persuasion authentique requiert une intention (p. 16). Or, les études rhétoriques ont montré que les mécanismes de la persuasion sont plus complexes, la persuasion n’est pas forcément intentionnelle et planifiée, que les discours argumentatifs ne sont pas dénués de paralogismes (faire des erreurs logiques ou quasi-logiques, induire en erreur par le langage sans s’en rendre compte). On comprend que les propositions de Fogg sont orientées vers la production de dispositifs persuasifs en sciences informatiques, et ambitionnent de fournir des modèles pratiques aux concepteurs ayant l’intention de créer des scénarios interactifs à visée persuasive. Elles n’ont pas pour vocation de développer des connaissances approfondies en études argumentatives et rhétoriques – champs du savoir auxquels Fogg ne se rattache pas de toute façon – alors que c’est l’un des buts poursuivis par les études en rhétorique procédurale. En effet, l’une des visées des travaux en rhétorique procédurale est de repérer les formes d’arguments au sein du langage IHM qui soutiennent une thèse ou desquelles une thèse peut être inférée. 

Orientation critique de la rhétorique procédurale

Enfin, la rhétorique procédurale, telle que je la conçois, correspond à une méthode critique pour repérer et déconstruire certaines opérations interactives qui visent à persuader parfois par des moyens trompeurs (stratégies rhétoriques, signes et tropes fallacieux) ; les systèmes procéduraux visent à générer des comportements et sont parfois liés à des idéologies particulières (Bogost, 2007, p. 3-4). Les études en rhétorique procédurale endossent ici une responsabilité critique. Elles partent du principe que les plateformes web, à l’exemple des médias socionumériques, développent un langage (langage d’interface interactif), portant des messages et des discours interactifs plus ou moins clairs, formulant des énoncés, véhiculant différentes idéologies au moyen de techniques persuasives parfois manipulatoires.

L’étude des « fallacies » tient une place particulière dans cette orientation critique. Part de l’activité rhétorique verbale, orale comme écrite, les « fallacies » correspondent à des techniques argumentatives abusives généralement destinées à tromper ou à manipuler l’interlocuteur (Walton, 1995). Théorisée en premier lieu par Aristote, et revisitée par Charles Leonard Hamblin (1970), puis par des auteurs comme John Woods et Douglas Walton (1982), Barth et Krabbe (1982) et Christian Plantin (1995, 2016) – qui a participé à franciser le terme –, la notion de « fallacie » a trouvé différentes définitions. De manière commune, une fallacie peut désigner une manœuvre trompeuse involontaire (paralogisme) ou délibérée (sophisme). D’un point de vue pragmatique, on la distingue à la manière dont elle est utilisée dans un dialogue argumentatif : elle peut être une erreur logique formelle ou informelle pouvant sous des airs vraisemblables forcer les conclusions en argumentation. Selon l’approche pragma-dialectique, une fallacie renvoie à la violation de l’une des règles régissant tout échange argumentatif raisonnable (van Eemeren & Grootendorst, 2004, p. 162 et sq). Frans H. van Eemeren et Rob Grootdendorst ont en effet systématisé dix règles qui régissent une discussion critique entre deux interlocuteurs défendant chacun une position. Ces règles vont de l’interdiction d’utiliser des formulations confuses à la proscription d’attaquer un élément qui n’est pas en rapport avec la discussion (par ex. homme de paille, argument ad personam) en passant par la liberté de pouvoir mettre en doute raisonnablement un point de vue. La pragma-dialectique qui lie une « conception dialectique de la rationalité argumentative à une approche pragmatique des procédés du discours argumentatif » (van Eemeren et Houtlosser, 2004, p. 45) part du principe qu’un échange d’arguments visant à persuader un interlocuteur doit observer des principes critiques et dialectiques fondamentaux, en vue de veiller au caractère raisonnable de l’interaction. Il est important de souligner que ces règles de « bonne argumentation » suivent un a priori normatif selon lequel convaincre ou persuader doit se faire dans le respect de l’interlocuteur et de la validité logique (non formelle) des arguments.

En somme, les études en argumentation et en rhétorique générale ont proposé des classifications des stratégies plus ou moins éthiques et un certain nombre de règles argumentatives à respecter (cf. van Eemeren & Grootendorst, 2004) sur lesquelles les études en rhétorique procédurale peuvent s’appuyer. Les typologies de fallacies sont aujourd’hui bien connues en rhétorique verbale et de nombreux auteurs ont travaillé à systématiser les modèles et les catégories (Hamblin, 1970 ; Walton, 1995 ; Plantin, 2016). Ces catégories peuvent être mobilisées pour l’étude des rhétoriques développées par les plateformes web et mobile, les médias socionumériques, les sites web de commerce en ligne. Quant aux règles de la pragma-dialectique, elles ne peuvent pas être directement plaquées sur les interactions humain-machine, car cette approche présuppose l’existence d’au moins deux interlocuteurs qui défendent une position argumentée en vue de parvenir ensemble à une conclusion. Ce n’est pas exactement le cas avec les plateformes en ligne : si une plateforme, par son design et sa conception, peut viser à persuader les internautes de telle ou telle thèse (par ex. que les données personnelles seront protégées, de passer du temps sur la plateforme, etc.), les internautes en revanche ne défendent pas forcément un point de vue argumentatif en bonne et due forme. Une interaction communicationnelle mobilisant des formes rhétoriques est néanmoins bel et bien en jeu. Ainsi, les règles d’un dialogue raisonnable proposées par van Eemeren et Grootdendorst constituent un fondement pertinent dont on peut s’inspirer (tout du moins comme outil d’évaluation critique et prémisse normative).

La rhétorique procédurale présente des cas particuliers de fallacies en attente d’être rassemblés comme tels. Dans une perspective pragmatique, les fallacies procédurales forment des vices du discours interactif dont le but est de faire faire des actions aux internautes (par ex. produire des signes, cliquer, faire des choix, changer le comportement). Elles ont la capacité de faire dévier les objectifs des internautes et de leur causer du tort. En somme, elles manipulent : l’action de manipuler peut être définie comme une manœuvre violente et contraignante cognitivement qui prive de liberté de réflexion ceux et celles qui y sont soumis (Breton, 2020, p. 22). Elle réduit la liberté et l’autonomie des interlocuteurs à faire des choix qui sont les leurs et à résister aux arguments et à la thèse qu’on leur impose. En somme, pour reprendre Breton : « La manipulation consiste à entrer par effraction dans l’esprit de quelqu’un pour y déposer une opinion ou provoquer un comportement sans que ce quelqu’un sache qu’il y a eu effraction » (Breton, 2020, p. 24).

À ce jour, peu d’études ont dressé un lien clair entre les stratégies rhétoriques manipulatoires et le langage humain-machine avec la perspective des études rhétoriques. On doit à Antonio Lieto et à Fabiana Vernero, chercheurs en sciences informatiques, d’avoir fait un premier essai (Lieto & Vernero, 2013) : à partir d’un corpus exclusivement composé de sites web de vente en ligne, les auteurs ont essayé de trouver des équivalences procédurales à un certain nombre de formes d’arguments fallacieux tirées des études rhétoriques plus traditionnelles (argument ad populum, ad verecundiam, etc.). Rares sont les auteurs à établir un lien direct entre rhétorique procédurale et fallacies, et ce, bien qu’il existe plusieurs travaux sur les stratégies obscures (« dark patterns ») propres au langage interactif (voir notamment Zagal et al., 2013 ; Greenberg et al., 2014 ; Gray et al., 2018 ; CNIL, 2019 ; Luguri & Strahilevitz, 2019 ; Mathur et al., 2019 ;  Bhoot et al., 2020 ; Di Geronimo et al., 2020 ; Mathur, 2020 ; Baroni et al., 2021; Bongard-Blanchy et al., 2021; Monge Roffarello & De Russis, 2022). Comme nous le verrons cependant, si les modèles obscurs (dark patterns) forment des fallacies procédurales, toutes les fallacies procédurales ne sont pas des modèles obscurs.

C’est à cette orientation critique de la rhétorique procédurale que la suite de cet article sera consacrée. Nous nous concentrerons précisément sur la part fallacieuse de la rhétorique interactive.

Exemples de stratégies procédurales abusives

J’ai rassemblé ici différents modèles selon deux grands types de stratégies fondamentales employées par les plateformes socionumériques et quelques grands modèles principaux en m’appuyant sur les études publiées sur le sujet (Conti & Sobiesk, 2010 ; Gray et al., 2018 ; Mathur et al. 2019 ; Hary, 2019 ; CNIL, 2019 ; Caccamo, 2019). La première concerne les stratégies de captation et de conservation de l’attention. La deuxième, les stratégies visant à faire baisser la garde sur la collecte des données personnelles et qui jouent sur le consentement ou sur l’autonomie de choix. Sont laissés de côté les formes liées aux jeux (jeux vidéo, jeux socionumériques), qui développent des stratégies rhétoriques fallacieuses un peu différentes des plateformes socionumériques (voir Zagal et al., 2013), et certains éléments que l’on trouve sur les sites web strictement destinés à la vente en ligne qui reprennent parfois d’anciennes techniques de vente peu scrupuleuses tels que la publicité déguisée, la vente à la pression, les coûts cachés et l’illusion de rareté des produits (pour aller plus loin voir Lieto & Vernero, 2013 ; Gray et al., 2018; Mathur et al., 2019 ; Calawen, 2022).

Stratégies sémio-rhétoriques de captation et de conservation de l’attention

Il existe un certain nombre de stratégies pour capter et maintenir l’attention des utilisateurs. Ces formes rhétoriques sont mises en place afin de persuader les internautes de passer du temps sur les plateformes afin qu’ils soient exposés aux contenus publicitaires ou dans le but que les entreprises du numériques conservent leur part de marché.

Monge Roffarello et De Russis (2022, p. 2) ont proposé l’expression « attention-capture dark pattern » pour qualifier toute fonctionnalité qui manipule, exploite les vulnérabilités psychologiques et les biais cognitifs des personnes afin de maximiser le temps passé, les visites quotidiennes et les interactions sur une plateforme numérique.

Les formes procédurales de « racolage » sont nombreuses sur les plateformes. On compte par exemple les titres cliquables en majuscules aux couleurs criardes et présentant des mots-clés attirants ou parfois choquants ; les vignettes suggestives, voire provocantes qui peuvent mener à de la publicité ; et les vidéos en lecture automatique (autoplay) qui forcent une écoute non sollicitée – principe contraire aux normes d’accessibilité du web (cf. Altinier, 2012).

Parmi ce type de signes « racoleurs » employés par les plateformes et les applications numériques, les « notifications » tiennent une place ambivalente. Souvent représentées au sein des interfaces par des symboles de cloches évoquant un imaginaire médiéval (Masure & Pandelakis, 2019) ou un imaginaire pavlovien, accompagnées de pastilles chiffrées aux couleurs vibrantes et animées, agissant sur la vigilance périphérique, les notifications relaient différents types d’informations selon le contexte.

Cependant, d’un point de vue rhétorique, à quel moment peut-on dire qu’une notification s’apparente à une forme fallacieuse? Certaines d’entre elles prennent parfois la forme de brefs messages-relais récurrents pouvant s’apparenter à des formes de harcèlement (ce que Gray et al., 2018 nomment « nagging »[2]) : au fil de son parcours de navigation, l’usager doit fermer à maintes reprises la même fenêtre qui surgit sans arrêt. D’autres notifications relaient des informations mensongères et sont plus facilement associables à des fallacies par les internautes : on parle alors de fausses notifications qui incitent les usagers à visiter les plateformes : par ex. la plateforme spamme nos contacts en se faisant passer pour nous (renouvellement de la fallacie ad amicitiam, qui fait appel à l’amitié) ou la plateforme génère une notification qui s’avère ne mener à rien. Les pseudo-notifications programmées et envoyées par les plateformes, parfois lorsque l’internaute est moins actif, et qui ne sont aucunement en lien avec des activités socionumériques forment une sorte d’entredeux. Elles capitalisent sur les notifications dites sociales, indice qu’un événement réel est survenu, et se font passer pour des notifications plus importantes qu’elles ne le sont en réalité (par ex. un contenu pourrait intéresser l’usager).

Toutefois, même si une notification transmet des informations jugées comme valides, ce type de signe n’est pas tout à fait anodin en raison du fait qu’il ait été pensé au fil du développement du design d’interface pour perturber et attirer l’attention. Les notifications informatiques que l’on connaît aujourd’hui ont été conçues, à un moment de l’histoire, comme une force d’interruption (Licoppe, 2009, p. 81; Masure & Pandelakis, 2019, p. 242). Elles ont une force phatique et conative pour détourner l’attention.

Les notifications que l’on observe sur les plateformes hégémoniques présentent plusieurs critères : les signes sont visuels, et souvent accompagnées de signes sonores et haptiques (vibrations). Si une notification n’est pas vue, elle pourra être entendue ou sentie, ce qui maximise ainsi les chances que le signal soit saisi. Elles sont aussi sciemment conçues pour être instantanées et encourager l’interruption de la tâche en cours : les signaux sont transmis dès qu’une activité ou un « événement » a lieu, en temps réel et non groupés de manière différée et planifiée. Cette non-planification est une technique importante de détournement de l’attention. Elle repose qui plus est sur la prémisse que les individus sont toujours prêts et disponibles à quitter leurs activités en cours pour visiter les plateformes[3]. La non-planification génère une certaine attente chez les usagers et une forme d’acceptation à la distraction.

La réception de notifications en temps réel participe à créer des habitudes fortes chez les destinataires, à cadrer les actions des usagers au profit des plateformes. Comme l’écrivent par ailleurs Masure et Pandelakis, « sous des aspects attrayants, nombre d’interfaces numériques recouvrent en fait des "algorithmes de la dépendance" visant à déterminer l’exécution de comportement réflexe » (Masure & Pandelakis, 2019, p. 243).

Ces manœuvres d’interruption sont établies alors qu’il existe d’autres modèles disons plus éthiques pour le design des notifications, à l’exemple d’une réduction des notifications ou d’une livraison planifiée des signaux (Roda, 2014 ; Fitz et al., 2019).

En somme, ces notifications s’adressent moins au logos (renseigner, informer) qu’aux pathos (émotions sentiments, récompenses émotionnelles). En ce domaine, l’un des meilleurs exemples est la notification mnésique employée par des plateformes comme Facebook : c’est par l’exploitation des émotions nostalgiques que certaines plateformes socionumériques parviennent à capter et à garder l’attention des internautes. La fonctionnalité Souvenirs illustre la façon dont Facebook exploite la mémoire et les souvenirs dans ses stratégies de design de l’attention.

Un autre exemple, bien que fort documenté mais qu’on ne peut passer sous silence, est au cœur des développements du web dit « social » : l’exploitation des sentiments liés aux rapports sociaux, au sentiment d’appartenance à une communauté sociale. Les plateformes exploitent les dynamiques sociales, les affects relatifs, pour faire marcher leur système économique (voir Alloing & Pierre, 2017).  José Van Djick (2013) s’est particulièrement intéressée à cette forme de stratégie rhétorique, à la façon dont les plateformes hégémoniques comme Facebook ont réussi à imposer leur signification normative du « social » et du « partage social ». Van Djick montre comment les médias socionumériques sont historiquement parvenus, par un ensemble de discours verbaux, visuels ainsi que interactifs, à brouiller les frontières entre deux formes de mise en rapport des individus, en faisant socialement accepter le passage d’une forme de connexion entre les individus à une autre : d’un côté, les plateformes connectent socialement les individus, se font les médiatrices numériques de relations sociales et exploitent les affects de nécessité d’être en contact social (ce que Van Dijck appelle la connectivness). De l’autre, ces mêmes relations sociales concourent à faire fonctionner le modèle économique des plateformes, sont marchandisées et les données des usagers sont revendues à des tiers ou mises à disposition à des fins publicitaires (ce que l’auteure appelle la connectivity). Selon la chercheuse, c’est bien parce qu’il y a de la connectivness que les individus acceptent (ou ignorent) la connectivity centrale aux modèles d’affaires des plateformes.

Les notifications socionumériques chiffrées qui s’accumulent (vues, réactions, commentaires, nombre d’amis, partages, etc.) revisitent d’une certaine manière les formes de l’argument ad populum, manœuvre argumentative d’autorité jugée illicite par son appel aux sentiments de la foule, ou de l’ad numerum, faisant appel au plus grand nombre. Ce type de formes « fait du nombre de partisans d’une position un indice de la valeur de cette position » (Doury, 2021, p. 113).

En plus de ces stratégies de captation et d’interpellation, on observe diverses techniques pour maintenir les internautes sur les plateformes. Le défilement infini (infinite scroll ou endless scroll) fait partie de ce que certains chercheurs, comme Woodrow Hartzog, qualifient de « design abusif » (Hartzog, 2018, p. 142‑143) : il s’agit d’un modèle interactif qui affiche de nouvelles informations à mesure que l’utilisateur fait défiler le contenu. L’apparition de nouvelles informations apparaît presque sans fin. Le designer Aza Raskin, qui a participé au développement de cette technique, utilise la métaphore alimentaire du bol de soupe sans fond pour décrire le défilement infini (Hill, 2018) : de la même manière qu’il est plus difficile de savoir combien de nourriture a été ingérée si notre assiette se remplit sans arrêt, il est plus difficile de savoir combien d’informations ont été « consommées » et combien de temps on a passé sur une plateforme. Les recommandations de contenus sans fin peuvent être utilisées pour « piéger » l’utilisateur dans le système et l’inciter à rester sur la plateforme (Monge Roffarello & De Russis, 2022). Ce modèle est souvent comparé au design de la machine à sous des casinos étudié par l’anthropologue Natasha Schüll dans son livre Addiction by Design (2013). Un modèle proche, le « glisser pour actualiser » (Pull to refresh), qui consiste à faire légèrement glisser l’interface avec le pouce pour voir s’il y a du nouveau, semble aussi être hérité du design des machines à sous (Monge Roffarello & De Russis, 2022). Il existe pourtant d’autres modèles que le défilement infini : le modèle de la page courte, exploité sciemment par le moteur de recherche Google afin de ne mettre en valeur que les premiers résultats, limite la quantité d’informations perçues et oblige les usagers à cliquer pour « tourner » les pages. Ce modèle permet de faire l’expérience du temps passé et de l’ampleur des informations parcourues. Cependant, sauf erreur, très peu d’études ont été menées pour mesurer les effets du défilement infini. Ce modèle a plutôt fait l’objet de nombreux commentaires dans le domaine du design utilisateur en dehors du monde universitaire.

Les indicateurs de frappe (typing indicator) incitent eux aussi les internautes à rester devant l’écran pour obtenir une réponse de leur interlocuteur. Pouvant prendre la forme de textes (« Quelqu’un rédige un commentaire ») ou de signes visuels (trois bulles animées), ils constituent des incitatifs comportementaux a priori peu susceptibles de causer du tort. Néanmoins, cumulés avec d’autres techniques persuasives malhonnêtes et employés au sein d’une interface dont l’objectif est de maximiser le temps d’exposition publicitaire ou de collecter des données personnelles, ces signes, plutôt anodins en apparence, entrent dans les stratégies économiques des plateformes. Le signe d’une présence humaine supposée derrière l’écran peut avoir un effet sur la perception des usagers et sur le désir d’attendre une réponse (Gnewuch et al., 2018). Ces indicateurs sont par ailleurs aujourd’hui utilisés lors d’une communication avec un robot conversationnel et peuvent dans certains cas exceptionnels être totalement mensongers.

Plusieurs de ces stratégies se trouvent à la limite entre les valeurs prônées par les études captologiques et les techniques manipulatoires. Bien entendu, comme l’écrit Plantin, « dire qu'une argumentation est fallacieuse est une affirmation diagnostique qui doit s'appuyer sur de bonnes raisons, sous peine d'être elle-même considérée comme fallacieuse. La critique de l'argumentation n'échappe pas à l'argumentation. » (Plantin, 2016, p. 227). Une analyse de ces outils doit être élaborée rigoureusement afin de démontrer comment ils peuvent causer du tort, tout en prenant en compte le contexte d’économie des données personnelles et de la vie privée si bien décrit par différentes disciplines et champs (droit, sociologie, économie, études en surveillance, etc.).

Stratégies sémio-rhétoriques portant atteinte à la vie privée, au consentement et au choix libre et éclairé

Certaines utilisations du langage procédural violent l’une des règles pragma-dialectiques selon laquelle une partie ne peut utiliser des formulations confuses, insuffisamment claires ou ambiguës (va Eemeren & Grootendorst, 2004, p. 195‑196). Ces stratégies de recadrage et de confusion visent généralement à faire baisser la garde des internautes sur les données qu’ils délivrent à une plateforme numérique. Ces « stratégies obscures portant atteinte à la vie privée » ou « privacy dark strategies » (Bösch et al., 2016 ; Hoepman, 2019) mettent en jeu la vie privée et la protection des données personnelles et participent également à faire adhérer les personnes à la thèse selon laquelle « il ne faut rien avoir à cacher ». Ou, plus largement, ces stratégies mettent à mal le consentement libre et éclairé des usagers, elles mettent à mal l’autonomie de choix[4].

Par exemple, des interférences visuelles (Conti & Sobiesk, 2010 ; Mathur, 2020), dont certaines sont appelées « fallacies d’accentuation » (accent fallacy) (Lieto & Vernero, 2013) ou « fausses hiérarchies » (false hierarchy) (Gray et al., 2018), visent à cadrer, manipuler ou invisibiliser une information au détriment d’une autre, et ce, au profit de la plateforme et non de l’utilisateur : un jeu sur des couleurs, des typographies, des tailles, des formes et d’autres signes participent à manipuler l’utilisateur et les choix interactifs qu’il est amené à faire (fig. 1).

Figure 1 – Exemple d’interférence visuelle minimisant le choix d’utiliser une adresse courriel personnelle au profit de la collecte de données.

Dans cette même logique d’interférence sémiotique, certains éléments interactifs sont temporairement cachés : par ex. le bouton « Passer » ne s’affiche qu’après quelques secondes au bas d’une fenêtre de consentement (Conti & Sobiesk, 2010), après une durée généralement bien étudiée. Dans ce court espace de temps, l’internaute a le temps de lire l’énoncé proposé et, ne voyant pas d’autres solutions possibles se présenter à lui, peut se sentir contraint d’accepter ce que la plateforme lui demande pour pouvoir accéder au service.

Les plateformes web exploitent par ailleurs les habitudes sémiotiques visuelles et les détournent à leur bénéfice parfois abusivement. Par exemple, certaines plateformes jouent sur les conventions en ergonomie web : elles déplacent un élément interactif dans une zone peu habituelle de l’interface (Conti & Sobiesk, 2010) ; en cherchant la fonction déplacée au sein de l’interface, l’internaute s’expose de fait plus longuement aux contenus publicitaires présents sur la plateforme ou, tout du moins, passe plus de temps sur la plateforme. On peut supposer que certaines plateformes modifient régulièrement leurs interfaces dans ce but. Le modèle de l’« appât et du changement » (bait and switch) (Brignul, 2010) est encore plus pernicieux en ce qu’il joue sur un changement de signification des symboles habituellement utilisés sur les interfaces graphiques. Le symbole de croix lié par convention à l’action de fermer une fenêtre est par exemple détourné pour forcer une opération, un téléchargement non consenti par exemple. Il y a là un abus de langage et des conventions, le signifié procédural du signe ne correspond pas du tout à ce qui était attendu.

Le modèle de la question piégée (Brignull, 2010 ; Conti & Sobiesk, 2010) forme un autre exemple de confusion rhétorique bien référencé. Cette forme est héritée de méthodes frauduleuses plus anciennes. Les utilisateurs sont soumis à un formulaire dont les questions sont peu claires, parfois jargonneuses, pourvues de doubles négations ou d’énoncés ambivalents (fig. 2). Les internautes sont amenés à cliquer ou à cocher des cases sans avoir très bien saisi ce qu’ils cochent ou en pensant avoir coché la bonne formulation alors que ce n’est pas le cas. Certaines cases des formulaires sont parfois présélectionnées par défaut. Ce type de formulaire est d’autant plus problématique lorsqu’il concerne des enjeux de vie privée ou brime le consentement.

Figure 2 - Exemple adapté de de Luguri et Strahilevitz, 2019, p. 49.

La liste de stratégies fallacieuses utilisées par les plateformes pour soutirer le plus de données personnelles possibles dans le cours du temps est assez fournie (Bösch et al., 2016). On peut citer l’action contrainte (« forced enrollment », Mathur, 2020 ; « forced consent », Brignull, 2010) pour laquelle la création de comptes est obligée pour continuer à utiliser la plateforme ou forcer le partage de données pour compléter une tâche (Mathur, 2020). Par exemple certains formulaires intrusifs comportent des champs obligatoires dont on peut questionner l’utilité ou des applications socionumériques nécessitent d’avoir accès à des données (géolocalisation, album photo, micro, etc.) qui n’ont pourtant rien à voir avec le service de la plateforme ou qui ne sont pas nécessaires. L’action forcée a généralement pour but de maximiser la collecte de données en obligeant les utilisateurs à fournir des données non essentielles au fonctionnement du service du point de vue utilisateur. Une autre variante, ici liée au consentement, est l’écoute contrainte, lorsque l’utilisateur est par exemple contraint de regarder une publicité pour accéder à un service (Conti & Sobiesk, 2010).

Une fois que les usagers sont sur les plateformes, certains énoncés interactifs mobilisent l’illusion de contrôle des données afin de persuader à tort que l’usage des données personnelles est transparent. Plusieurs plateformes emploient la métaphore de l’engrenage qui évoque une mécanique de précision (par ex. celle des horloges) ou bien les utilisateurs ont accès à des tableaux de bord métaphorisés composés de consoles à boutons connotant le contrôle. Selon la plateforme, ces signes sont rapidement intelligibles, mais peuvent donner la fausse impression que l’internaute dispose de tous les outils pour bien gérer l’usage qui sera fait de ses données. D’autant plus que ces symboles sont souvent accompagnés de la technique rhétorique du faux dilemme : par exemple, le réglage des paramètres proposé ne présente que deux options (tandis que d’autres options seraient pourtant possibles) pour conduire à une conclusion forcée.

Obscurcir l’accès aux informations sur les pratiques de conservation, de traitement et de protection des données personnelles constitue une autre forme fallacieuse. La plateforme confond l’internaute dans un dédale de pages, mobilise un jargon verbal volontairement obscur et complexes et des signes visuels ambigus de manière à dissuader ou à décourager toute tentative de compréhension.

Rendre difficile l’accès informationnel peut également s’accompagner d’une obstruction à la clôture, autrement dit à la suppression de compte ou d’abonnement (« Roach Motel », Brignull) ou à la désinstallation (Conti & Sobiesk, 2010). Se désinscrire d’une plateforme, se désabonner ou supprimer un logiciel requiert de s’engager dans une longue procédure qui peut prendre du temps (pour trouver le bon endroit ou en fonction de la procédure à suivre). Mettre fin au dialogue interactif est alors fastidieux, voire impossible.

L’internaute qui souhaite fermer un compte peut être confronté à un autre modèle rhétorique, celui du fardeau de confirmation (« Confirmshaming » selon Brignull, 2010). Stratégie fondée sur l’affect, elle fait généralement appel à la culpabilité ou la honte des usagers lorsque ces derniers souhaitent se désinscrire d’un service. Le modèle vise à persuader les individus de ne pas fermer leur compte. Lorsque l’usager entreprend les démarches de désinscription, un texte souvent associé à une image surgit et tâche de culpabiliser l’internaute. Le fardeau est renvoyé à l’internaute qui est amené à interroger ses propres actions et responsabilités. Le sentiment de peur (formes de l’argument ad baculum) est souvent exploité : en supprimant son compte ou en refusant une fonctionnalité, l’utilisateur est par exemple menacé de manquer des informations primordiales. Comme le remarquent très bien les auteurs du rapport « Deceived by Design » du Norwegian Consumer Council (2018, p. 22, trad. libre), Facebook proférait une sorte d’avertissement fondé sur la crainte lorsque les utilisateurs désactivaient la fonction de reconnaissance faciale : « Si vous désactivez la reconnaissance faciale, nous ne pourrons plus utiliser cette technologie si un inconnu utilise votre photo pour usurper votre identité. » L’ad baculum exploite le sentiment de peur. Il vise à « contraindre l’action du destinataire par l’invocation de conséquences indésirables que pourrait avoir son choix » (Doury, 2021, p. 223).

Des chercheurs comme Jaap-Henk Hoepman (2019) ont listé des stratégies inverses pour chacun de ces modèles. On ne peut donc ainsi nier qu’il existe un répertoire de modèles plus éthiques et plus respectueux des internautes. D’autres chercheurs (Acquisti et al., 2017 ; Graßl et al., 2021) ont également proposé de contrer ces stratégies par des incitatifs comportementaux positifs (brigh patterns ou positive nudges), mais qui relèvent d’un fondement jugé paternaliste : par exemple précocher des options plus favorables au bien-être des usagers et au respect de la vie privée en défaveur des plateformes. D’autres encore suggèrent de développer et d’utiliser des extensions pour navigateurs qui repèreraient automatiquement certains modèles et les signaleraient aux internautes (Mathur et al., 2019).

Au reste, les modèles ici présentés n’épuisent pas le répertoire des stratégies obscures employées par les plateformes. N’ont pas été listées les manœuvres d’influence algorithmiques (statistiques corrélatives, profilage, prédictions, etc.) dont disposent les plateformes comme Facebook pour cibler les personnes en fonction de données sur leurs vulnérabilités, leurs goûts, leur humeur et leurs sentiments quasi en temps réel en vue d’envoyer de la publicité personnalisée ou des contenus d’influence à un moment clé. Ces stratégies, que des scandales comme celui de Cambridge Analytica ont mises sur la place publique, réduisent l’autonomie et la liberté des personnes et présentent des enjeux éthiques, sociaux et politiques (voir Susser et al., 2019). Cette manipulation est foncièrement asymétrique étant donné que la partie qui produit l’énoncé persuasif (poussant à faire un achat, à voter pour untel, à penser de telle façon) dispose d’informations précieuses et relativement précises issues du traitement algorithmique des données personnelles. Cette stratégie rhétorique renouvelle de façon plus sophistiquée l’exploitation des éléments pathétiques (au sens de pathos : émotions, passions, sentiments, humeur, états cognitifs vulnérables, etc.) à des fins manipulatoires : connaître les sentiments de personnes en temps réel (ou du moins les inférer sur la base de corrélations) et jouer sur les cordes sensibles au moment opportun.

Parmi ces manœuvres d’influence algorithmiques peuvent également figurer les fameuses « chambres d’écho » ou « bulles de filtre » algorithmiques (Pariser, 2011 ; Claes et al., 2021) qui cadrent les contenus présentés sur les interfaces et exploitent certains biais cognitifs (biais de confirmation notamment) ainsi que les mécanismes du cadrage manipulateur. Breton (2020, p. 96) décrit trois logiques du cadrage manipulateur que l’on peut appliquer au phénomène en question :

« Le cadrage manipulateur connaît trois grandes variations possibles : il consiste soit à transformer d’une façon ou d’une autre le vrai en faux et réciproquement, soit à orienter les faits de telle façon que la réalité s’en trouve sciemment déformée, soit à masquer une partie des faits de telle façon que soient cachées les conséquences de l’acceptation d’un cadrage donné »

 

Certaines interfaces développent, en outre, des énoncés interactifs vicieux ou délictueux, à l’exemple de propositions discriminatoires ou sexistes envers les femmes (cf. Wachter-Boettcher, 2017). Ces énoncés interactifs ne s’apparentent pas à proprement parler à des modèles de design obscurs (dark patterns), mais plus généralement à des argumentations très discutables usant de procédures.

Par conséquent, chaque discours interactif doit faire l’objet d’une analyse attentive, en connaissance des fallacies procédurales y compris des manœuvres d’influence algorithmiques, afin qu’y soient repérées des occurrences singulières présentes ou non dans les répertoires existants. 

Enjeux pour l’éducation aux médias et la littératie numérique

Reconnaître les modèles procéduraux fallacieux et garder en tête le potentiel de persuasion manipulatoire est important pour ne pas « se faire prendre au piège ». Toutefois, la connaissance de ces modèles présente des limites. Comme le montre l’étude menée par Kerstin Bongard-Blanchy et ses collègues (2021) au Royaume-Uni, reconnaître ces formes rhétoriques n’est pas une garantie pour les utilisateurs de pouvoir s’opposer à la manipulation, autrement dit d’aller à l’encontre de ce qui est soumis à l’utilisateur. L’étude montre que si les usagers sont capables de reconnaître ces modèles, ils ne comprennent pas forcément leur potentiel néfaste. Le rôle (et le défi) pour l’éducation aux médias et à la littératie numérique est non seulement de faire reconnaître les modèles, mais également de faire comprendre les problèmes éthiques, sociaux et politiques que posent ces fallacies procédurales. En connaissance de cause, cependant, d’autres internautes acceptent d’être manipulés ou se résignent à « se faire avoir » en contrepartie de services « gratuits » (Maier et Harr, 2020). Parfois, pour certains d’entre eux, le « prix » à payer pour s’opposer à une fallacie est trop élevé (Bongard-Blanchy et al., 2021) que cela soit sur le plan social ou en termes de temps à consacrer à cette opposition. Ces attitudes de résignation, voire d’acceptation ne témoignent-elles pas d’un mécanisme plus durable et profond de la rhétorique procédurale que l’éducation aux médias devrait explorer? Les plateformes hégémoniques disposent, on le sait, de moyens de persuader à grande échelle, de diffuser quotidiennement et largement les thèse qui soutiennent leur système économique (« ne rien avoir à cacher » par exemple). Certain·e·s auteur·e·s en sémiotique parlent de « rhétorique processuelle » (Bonenfant et al., 2016, 2018) pour qualifier cette capacité de persuasion durable : si la rhétorique procédurale vise à persuader les internautes d’agir de telle ou telle façon au sein de l’interface et favorise l’acquisition d’habitudes et de réflexes sémiotiques, les études sur la rhétorique processuelle mettent l’accent sur le fait que les interactions humain-machine participent plus largement à modifier les représentations sociales, les croyances, les attitudes morales et même les subjectivités des personnes. À la rhétorique procédurale s’adjoint une rhétorique processuelle qui agirait sur les subjectivités des personnes, sur les plans identitaires et axiologiques. Cette approche présuppose qu’en étant régulièrement exposés à des environnements procéduraux, les internautes intègrent des arguments et des thèses idéologiques inscrits au cœur du code informatique et les intériorisent « jusqu’à l’adhésion totale où il n’est plus possible de distinguer ce qui relève de l’individu de ce qui provient d’une autorité extérieure » (Bonenfant et Philippette, 2018, § 32)[5]. Dans le même champ d’études, le sémioticien Fabien Richert s’inspire des travaux d’Adorno pour réfléchir à la manière dont les notifications, par leur forme interpellative, participent à créer des modes de subjectivation particuliers (Richert, 2021). Ces travaux doivent être poursuivis pour mieux saisir mécanismes rhétoriques à l’œuvre. L’éducation aux médias et à la littératie numérique me semble devoir prendre en compte de ces deux niveaux, le procédural et le processuel, afin de ne pas négliger certains enjeux qui entraveraient la résistance aux fallacies procédurales.

Conclusion

Dans cet article, j’ai tâché de présenter ce qu’on entend par rhétorique procédurale vis-à-vis de la rhétorique numérique en présentant trois grandes orientations qui s'entrecoupent : esthétique, argumentative et critique. Parmi celles-ci, j’ai exploré plus avant l’orientation critique et la notion de fallacie en présentant des exemples tirés des études sur le sujet ou de cas observés, pour finalement aborder quelques enjeux liés à l’intelligibilité des fallacies procédurales. Poursuivant les travaux de Bogost, j’ai proposé une lecture rhétorique d’un phénomène de mieux en mieux connu aujourd’hui mais qui a fait l’objet de peu d’écrits en français : les figures de persuasion manipulatoire par le langage interactif humain-machine. J’ai ainsi tâché de restituer un répertoire de modèles importants en rhétorique procédurale. De futurs travaux pourront corriger ce répertoire, l’augmenter et mettre l’accent sur une analyse plus poussée de ces figures en distinguant rigoureusement, par exemple, la production, l’émission et la réception de chacune d’elles, et ce, dans différents contextes. Il serait dans ce cas nécessaire d’étudier en particulier, comme le font les études rhétoriques avec les figures plus classiques (par ex. pour la métaphore), la « nature » de l’une ou l’autre de ces figures interactives.

Bibliographie

Altinier, A. (2012). Accessibilité web: normes et bonnes pratiques pour des sites plus accessibles. Paris : Eyrolles.

Acquisti, A. et al. (2017). Nudges for privacy and security. ACM Computing Surveys, 50(3), 1–41. https://doi.org/10.1145/3054926

Allard-Huver, F. & Gilewicz, N. (2015). Digital Parrhesia 2.0: Moving beyond Deceptive Communications Strategies in the Digital World. In : Harrison D. (dir.), Handbook of Research on Digital Media and Creative Technologies, Hershey, IGI Global, 404-416.

Alloing, C. & Pierre, J. (2017). Le Web affectif, une économie numérique des émotions. Paris : Ina Editions.

Baroni, L. A., Puska, A. A., Cardoso de Castro Salgado, L. & Pereira, R. (2021). Dark Patterns: Towards a Socio-Technical Approach. Proceedings of the XX Brazilian Symposium on Human Factors in Computing Systems, 1-7 https://doi.org/10.1145/3472301.3484336

Barth, E. M. & Krabbe, E. C. (1982). From Axiom to Dialogue. Berlin : De Gruyter.

Bastien, J. M. C. & Calvary, G. (2019). Introduction au numéro spécial n°2 sur les technologies persuasives. Journal d’Interaction Personne-Système (Association Francophone d’Interaction Homme-Machine (AFIHM).

Bhoot, M. A., A. Shinde, M., & Mishra, W. P. (2020). Towards the Identification of Dark Patterns: An Analysis Based on End-User Reactions. IndiaHCI ’20: Proceedings of the 11th Indian Conference on Human-Computer Interaction, 24-33. https://doi.org/10.1145/3429290.3429293

Bogost, I. (2007). Persuasive Games: The Expressive Power of Videogames. Cambridge, Mass. : MIT Press.

Bolter, J. D. & Grusin, R. A. (1999). Remediation: Understanding New Media. Cambridge, Mass : MIT Press.

Bombardi-Bragg, M. R. (2017). Exploring App Users’ Experiences With App Notifications (these). Fort Collins : Colorado State University.

Bonenfant, M. & Philippette, T (2018). Rhétorique de l’engagement ludique dans des dispositifs de ludification. Sciences du jeu, 10. https://doi.org/10.4000/sdj.1422

Bonenfant, M. & Arsenault, D. (2016). Dire, faire et être par les jeux vidéo. Implications philosophiques. [En ligne] https://www.implications-philosophiques.org/dire-faire-etre-ethique-performativite-et-rhetoriques-procedurale-et-processuelle-dans-les-jeux-video/

Bongard-Blanchy, K., Rossi, A., Rivas S., Doublet S., Koenig V. & Lenzini, G. (2021). “I Am Definitely Manipulated, Even When I Am Aware of It. It’s Ridiculous!” - Dark Patterns from the End-User Perspective. Designing Interactive Systems Conference 2021, 763–776. https://doi.org/10.1145/3461778.3462086

Bösch, C., Erb, B., Kargl, F., Kopp H. & Pfattheicher, S. (2016). Tales from the Dark Side: Privacy Dark Strategies and Privacy Dark Patterns. Proceedings on Privacy Enhancing Technologies, 4, 237‑254.

Boyle, C., Brown, J. J. & Ceraso, S. (2018). The Digital: Rhetoric Behind and Beyond the Screen. Rhetoric Society Quarterly, 48(3) 251–259. https://doi.org/10.1080/02773945.2018.1454187

Breton, P. (2020). La parole manipulée. Paris : La Découverte.

Brignull, H. (2010). Dark Patterns. [En ligne] https://www.deceptive.design/

Caccamo, E. (2019). Médias socionumériques alternatifs : étude sémiotique et rhétorique de diaspora*. Cygne noir, no 7. [En ligne] http://revuecygnenoir.org/numero/article/caccamo-medias-socionumeriques-alternatifs.

Calawen, D. S. (2022). Dark Patterns: Effect on Overall User Experience and Site Revisitation.
Mémoire, Dublin : Technological University Dublin. 

Claes, A., Wiard V., Mercenier H., Philippette T., Dufrasne M., Browet A. & Jungers, R. (2021). Algorithmes de recommandation et culture technique : penser le dialogue entre éducation et design. tic&société, 15(1), 127-157.

CNIL (2019). La forme des choix. Données personnelles, design et frictions désirables (rapport).

Conti, G. & Sobiesk, E. (2010). Malicious Interface Design: Exploiting the User. Proceedings of the 19th International Conference on World Wide Web - WWW ’10. https://doi.org/10.1145/1772690.1772719

Di Geronimo, L., Braz L., Fregnan E., Palomba F. & Bacchelli, A. (2020). UI dark patterns and where to find them: a study on mobile applications and user perception. Proceedings of the 2020 CHI Conference on Human Factors in Computing Systems, 1–14.

Doury, M. (2021), Argumentation: Analyser textes et discours. Paris: Armand Colin.

Eyal, N. & Hoover, R. (2018). Hooked: comment créer un produit ou un service qui ancre des habitudes, trad. de l’anglais (États-Unis) par P.-M. Deschamps. Paris : Eyrolles.

Eyman, D. (2015). Digital Rhetoric: Theory, Method, Practice. Ann Arbor: University of Michigan Press.

Fitz, N., Kushlev K., Jagannathan R., Lewis T., Paliwal D. & Ariely, D. (2019). Batching Smartphone Notifications Can Improve Well-Being. Computers in Human Behavior, 101, 84–94. https://doi.org/10.1016/j.chb.2019.07.016

Fogg, B. J. (1997). Captology: The Study of Computers as Persuasive Technologies. CHI ’97 Extended Abstracts on Human Factors in Computing Systems.

Fogg, B. J. (1998). Persuasive Computers: Perspectives and Research Directions. Proceedings of the SIGCHI Conference on Human Factors in Computing Systems - CHI ’98, 225–232. https://doi.org/10.1145/274644.274677

Fogg, B. J. (2003). Persuasive Technology: Using Computers to Change What We Think and Do. Amsterdam ; Boston: Morgan Kaufmann Publishers.

Foulonneau, A., Calvary G. & Villain, E. (2015). State of the art in persuasive systems design, Etat de l’art en conception de systèmes persuasifs. Journal d’Interaction Personne-Système, 19–47.

Fourmentraux, J.-P. (2010 [2005]) Art et internet. Les nouvelles figures de la création. Paris : CNRS Éditions.

Gray, C. M., Kou Y., Battles B., Hoggatt J. & Toombs, A. L. (2018). The Dark (Patterns) Side of UX Design. Proceedings of the 2018 CHI Conference on Human Factors in Computing Systems, 1–14. https://doi.org/10.1145/3173574.3174108

Graßl, P.,  Schraffenberger H., Zuiderveen Borgesius F. & Buijzen, M. (2021). Dark and Bright Patterns in Cookie Consent Requests. Journal of Digital Social Research 3(1) 1–38. 

Greenberg, S., Boring, S., Vermeulen, J. & Dostal, J. (2014). Dark Patterns in Proxemic Interactions: A Critical Perspective. Proceedings of the 2014 Conference on Designing Interactive Systems, 523–532. https://doi.org/10.1145/2598510.2598541

Gnewuch, U., Adam, M. T. P., Morana, S., & Maedche, A. (2018). “The Chatbot Is Typing ...” - The Role of Typing Indicators in Human-Chatbot Interaction. Proceedings of the 17th Annual Pre-ICIS Workshop on HCI Research in MIS.

Hamblin, C. L. (1970), Fallacies. Londres: Methuen.

Hary, E. (2019). Dark patterns : quelle grille de lecture pour les réguler ? », CNIL. 

Hartzog, W. (2018). Privacy’s Blueprint: The Battle to Control the Design of New Technologies. Cambridge, Massachusetts: Harvard University Press.

Hoepman, J.-H. (2019). Privacy Design Strategies (The Little Blue Book). Repéré à : .

Hill, M. (2018). Smartphones: The Dark Side. Londres : reportage de la BBC, 30 min.

Leiser, M. (2020. “Dark Patterns”: The Case for Regulatory Pluralism. LawArXivhttps://doi.org/10.31228/osf.io/ea5n2 

Licoppe, C. (2009). Pragmatique de la notification. Tracés, 16, 77–98.  <https://doi.org/10.4000/traces.2523

Lieto, A. & Vernero,  F. (2020). On the Impact of Fallacy-Based Schemata and Framing Techniques in Persuasive Technologies. [En ligne] https://philarchive.org/archive/LIEOTI-2

Lieto, A. & Vernero,  F. (2014). Influencing the Others’ Minds: An Experimental Evaluation of the Use and Efficacy of Fallacious-Reducible Arguments in Web and Mobile Technologies. PsychNology Journal, 12(3), 87–105.

Lieto, A. & Vernero,  F. (2013). Unveiling the Link between Logical Fallacies and Web Persuasion, Proceedings of the WebSci’13 Conference. https://doi.org/10.48550/ARXIV.1304.3940

Luguri, J. & Strahilevitz, L. J. (2021). Shining a Light on Dark Patterns. Journal of Legal Analysis, 13(1), 43-109.  https://doi.org/10.1093/jla/laaa006

Maier, M. & Harr, R. (2020). Dark Design Patterns: An End-user Perspective. Human Technology, 16(2), 170–199.

Manovich, L. (2010). Le langage des nouveaux médias. Paris : les Presses du réel.

Masure, A. & Pandelakis, P. (2019). Archéologie des notifications numériques. In : Citton, Y. et E. Doudet (dir.), Écologies de l’attention et archéologie des media. Grenoble : UGA Éditions, 233–246.

Mathur, A. (2020). Identifying and Measuring Manipulative User Interfaces at Scale on the Web. (these) Princeton : Princeton University.

Mathur, A., Acar, G., Friedman, M. J., Lucherini, E., Mayer, J., Chetty, M. (2019). Dark Patterns at Scale: Findings from a Crawl of 11K Shopping Websites. Proceedings of the ACM on Human-Computer Interaction, 3, 1–32. https://doi.org/10.1145/3359183

Monge Roffarello, A. & De Russis, L. (2022). Towards Understanding the Dark Patterns That Steal Our Attention’, in CHI Conference on Human Factors in Computing Systems Extended Abstracts, 1–7. https://doi.org/10.1145/3491101.3519829

Norwegian Consumer Council (2018). Deceived by Design. How tech companies use dark patterns to discourage us from exercising our rights to privacy. [En ligne] https://fil.forbrukerradet.no/wp-content/uploads/2018/06/2018-06-27-deceived-by-design-final.pdf 

NT2 (2022). Répertoire du Laboratoire de recherche sur les œuvres hypermédiatiques. [En ligne] https://nt2.uqam.ca/fr/search/site

Paquin, L.-C. (2006). Comprendre les médias interactifs. Montréal: I. Quentin.

Pariser, E. (2011). The Filter Bubble: What the Internet Is Hiding from You. Londres : Viking.

Plantin, C. (2016). Dictionnaire de l’argumentation: une introduction aux études d’argumentation. Lyon: ENS éditions.

Plantin, C. (1995). L’argument du paralogisme. Hermès, 1(15), 245‑262.

Richert, F. (2021). Présentation dans le cadre du séminaire « Communication numérique et en réseaux », Université du Québec à Trois-Rivières.

Roda, C. (2014). Économiser l’attention dans l’interaction homme-machine. In : Citton, Y. (dir.), L’économie de l’attention. Paris: La Découverte, 179–190.

Rouvroy, A. et T. Berns (2013). Gouvernementalité algorithmique et perspectives d'émancipation. Réseaux 1(177), 163-196.

Schüll, N. (2013). Addiction by Design. Machine Gambling in Las Vegas. Princeton : Princeton University Press.

Susser, D., Roessler B. et H. Nissenbaum (2019). Technology, Autonomy, and Manipulation. Internet Policy Review, 8(2), 1-22. https://doi.org/10.14763/2019.2.1410

Van Dijck, J. (2013). The Culture of Connectivity: A Critical History of Social Media. Oxford : Oxford University Press.

van Eemeren, F. H. & Grootendorst, R. (2004). A Systematic Theory of Argumentation: The Pragma-Dialectical Approach. New York : Cambridge University Press.

van Eemeren, F. H. & Houtlosser, P. (2004). Une vue synoptique de l’approche pragma-dialectique. In : Doury, M. et S. Moirand (dir.), L’argumentation aujourd’hui : Positions théoriques en confrontation. Paris : Presses Sorbonne Nouvelle, 45-75.

Walton, D. N. (1995). A Pragmatic Theory of Fallacy. Tuscaloosa : University of Alabama Press.

Walton, D. N. (2007). Media Argumentation: Dialectic, Persuasion, and Rhetoric. Cambridge ; New York : Cambridge University Press.

Wachter-Boettcher, S. (2017). Technically Wrong: Sexist Apps, Biased Algorithms. New York : Norton & Cie.

Weissberg, J.-L. & Barboza, P. (2006). L’image-actée. Paris : L’Harmattan.

Woods, J. & Walton, D. N. (1982). Argument, the Logic of the Fallacies. Toronto ; New York: McGraw-Hill Ryerson.

Zagal, J. P., Björk, S. & Lewis, C. (2013). Dark Patterns in the Design of Games. Foundations of Digital Games Conference.

Zappen, J. P. (2005). Digital Rhetoric: Toward an Integrated Theory. Technical Communication Quarterly, 14(3) 319–325. https://doi.org/10.1207/s15427625tcq1403_10


Notes

[1] Rares sont les études en français qui abordent ces questions, ce qui laisse penser que le problème serait anglophone, ce qui n’est évidemment pas le cas. Qui plus est, les exemples de fallacies sont généralement issus d’interfaces anglophones et les noms donnés aux modèles sont en anglais. La Commission nationale de l'informatique et des libertés (CNIL) (CNIL, 2019 ; Hary, 2019) a fait un travail remarquable pour traduire certains termes. Je m’appuierai sur les traductions proposées par la CNIL et en fournirai moi-même quelques-uns lorsque la traduction sera manquante ou jugée insatisfaisante.

[2] Voir le site web de recherche des auteurs : https://darkpatterns.uxp2.com/

[3] Comme le remarque très bien un web designer, désactiver les notifications des grandes plateformes socionumériques n’est souvent possible que de façon temporaire. Andrew Wilshere (2017), « Are Notifications A Dark Pattern? », https://designlab.com/blog/are-notifications-a-dark-pattern-ux-ui/

[4] J’ai rassemblé ici les techniques portant atteinte à la vie privée et les problèmes liés au consentement pour la simple et bonne raison que sur les médias socionumériques le consentement est souvent lié au fait de délivrer ou non des données personnelles. Néanmoins, ces deux thèmes pourraient être séparés : par exemple, certains sites de commerce en ligne abusent du consentement des clients en ajoutant des produits au panier d’achat à l’insu de ces derniers (modèle du « Sneak into the basket » identifié par Brignull, 2010). On peut aussi penser à l’installation de logiciel sans consentement (cf. Conti & Sobiesk, 2010).

[5] Ceci peut faire écho aux mécanismes de la « gouvernementalité algorithmique » définis par Rouvroy et Berns (2013).

 

  

Imprimer   E-mail