La Censure Post-Internet

Ellis Laurens

catalogue de l’exposition Human, after all, 2022


       Internet est un espace qui se conçoit à son origine à travers un certain nombre de critères qui en définissent ses fonctions et ses potentialités. De fait, le cyberespace est perçu comme étant l’apogée de la liberté, de l’anonymat, de l’expression et de la conscientisation. L’on croyait dans les années 80, lors du développement de l’industrie informatique et de la démocratisation de l’emploi d’ordinateurs personnels, à une solution miracle pour la libre expression et disposition de matériel culturel. Cherchant à s’éloigner du mercantilisme dégénéré qui caractérise les échanges intersociétaux de la seconde moitié du XX° siècle, la naissance du Net devait offrir une plateforme d’échanges universelle et délivrée du joug commercial, le statut d’utilisateur·ice garantissant une protection contre les discriminations interpersonnelles, et le connexionnisme en expansion permettant des rencontres au-delà du rapprochement géographique. Mais cette promesse utopique n’a pas su faire face au capitalisme à toute épreuve qui s’insère dans tout cercle et dans tout secteur d’activité. En effet, les noms de domaine nécessaires à l’hébergement de sites en ligne deviennent bientôt un produit commercial tandis que de plus en plus d’interface proposent des biens et des services payants. Cependant, c’est surtout la manière dont la pensée se trouve réformée par les normes actuelles du cyberespace qui nous intéresse ici. Là où la volonté de constituer un espace propice à la liberté et à la libre circulation de l’idée, on note aujourd’hui une résurgence de démarches de censure qui témoignent d’une régression nette dans cette acquisition des libertés. Nous tendrons ainsi à relever les formes les plus marquantes de cette censure afin d’en analyser les tenants et les aboutissants et d’en révéler les problématiques sous-jacentes.

       Tout d’abord, notre terrain de recherche sera le milieu des réseaux sociaux, qui nous semble particulièrement gangrené par cette néo-censure. Par exemple, le corps féminin dans sa représentation sur les interfaces de ce type de télécommunications est constamment contrôlé par des algorithmes de plus en plus performants qui tendent à le cacher et à sanctionner dans leur expression les utilisateur·ices qui osent le montrer. En effet, i·el est interdit de poster des visuels de téton féminin, bien que certaines contradictions témoignent d’un traitement différent en fonction des utilisateur·ices ou encore révèlent l’absurdité de telles mesures ; effectivement, des tétons fictifs seront autorisés à exister sur ces plateformes dès lors qu’ils ne paraissent pas appartenir à une personne réelle. Du contenu explicite peut ainsi circuler en toute “légalité” alors que l’on pourrait penser que c’est la volonté de ne pas diffuser ce type de contenu qui encourage les entreprises à cette censure de poitrine. Cet illogisme tend à faire penser que ces interdictions proviennent plus d’une énième tentative de contrôle sur le corps des fxmmes que d’une volonté bienpensante d’éviter la diffusion d’images sensibles. Les tétons masculins ne sont pour le coup pas censurés, alors qu’ils témoignent de la même charge potentiellement sexuelle que les tétons féminins. Le fait de censurer le corps des fxmmes s’inscrit toujours dans une logique de différenciation sexuelle et de sexualisation du corps des fxmmes.

       De même, tout ce qui va avoir un attrait à la violence aura des chances de se voir censuré, ce qui finit par orienter les sujets possibles de d’expression et de dialogue. Évidemment, le but ici n’est pas de légitimer le partage de contenus visuellement graphiques et gore, mais plutôt de permettre le discours sur la violence concrète, le témoignage de violences vécues, interpersonnelles ou institutionnelles. Censurer le contenu à caractère violent ne fait que contribuer à l’établissement du fantasme d’une société pacifiste, un monde utopique au sein duquel la violence est tellement absente qu’elle ne fait plus partie des sujets de conversation. Pendant les années 90, de nombreux médias européens, face au succès de la scène émergente du jeu vidéo de combat et d’horreur, se placent en figures moralisatrices en reprenant la thèse suivante : les images violentes créent des esprits violents. La popularisation de VHS très gore où règnent suspense et body horror et s’échangeant dans l’obscurité des vidéoclubs va effectivement apeurer les classes bourgeoises bienpensantes, et de nouveaux services de censure seront mis en place afin de contrôler (et d’occulter partiellement ou totalement) les travaux artistiques du genre (comme observé dans le film Censor, de Prano Bailey-Bond, sorti en 2021). Aujourd’hui, les contenus potentiellement choquants visuellement sont régulièrement occultés par un premier avertissement alertant sur leur caractère graphique sur les plateformes de réseaux sociaux. Mais parmi tous les contenus considérés comme potentiellement violents (présence d’armes, images de blessures, d’accidents, témoignages d’agressions, partage de conseils d’autodéfense, slogans militants et campagnes de sensibilisation choc), comment un algorithme peut-il faire le tri entre du contenu réellement gratuitement dangereux et du contenu recelant d’une certaine valeur ? Comment séparer l’apologie du port d’armes du tutoriel pratique de dernier recours ? L’incitation à la haine et l’incitation à la réflexion ? Le prosélytisme autour de la guerre civile des documents visant à éduquer et sensibiliser ? La banalisation de la violence de la satyre critique ? Les discours fascistes des discours antifascistes ? Au lieu de mettre au point des comités de revue de ces contenus, ou d’affiner les paramètres algorithmiques, les GAFAM préfèrent tout passer sous silence d’un même mouvement afin sans doute de se dédouaner de faire des erreurs de jugement.

       Les propos sur la consommation de substances sont eux aussi soumis à une certaine régularisation. L’alcool, le tabac et la drogue en général sont bien évidemment des substances à risques, à consommer avec conscience et modération, mais elles font aussi partie de notre quotidien. Un certaine hypocrisie règne dans des sociétés où les industries pharmaceutiques ont autant d’influence et de clientèle, où les pesticides et autres conservateurs chimiques coulent à flot, où la consommation d’alcool est glamourisée et totalement encouragée malgré ses dangers reconnus et au sein desquelles les discours autour de ces pratiques risquent de se voir disparaître des réseaux. La censure des contenus sexuellement explicites est aussi chose relativement établie, même si encore une fois, des nombreux·ses utilisateur·ices détournent sans difficulté ces contrôles algorithmiques et font des réseaux sociaux de réelles plateformes publicitaires menant vers d’autres liens et comptes supportant du contenu NSFW (Not Safe For Work). On peut toujours trouver des vidéos à caractère sexuel voire pornographique sur de nombreuses plateformes comme YouTube, Instagram, Facebook ou encore Twitter. De même, les sollicitations dans les messages privés, et donc sous les radars des algorithmes, est chose relativement commune aujourd’hui. Toutefois, i·el existe des communautés spécifiques qui vont souffrir directement de ce type de restrictions. Nous pensons par exemple aux communautés toxicomanes qui pourraient avoir besoin de s’exprimer ou de forger des liens en ligne par rapport à leur expérience, afin de prodiguer des conseils et de recevoir du soutien. I·El en est de même pour les travailleur·euses du sexe (TDS), qui pratiquent des activités parfois dangereuses et précaires et vont alors avoir besoin de se retrouver dans des safe spaces, afin d’échanger, de se renseigner, de partager leurs témoignages etc, or c’est parfois plus simple en ligne. Si l’on considère ces groupes sociaux, i·el est difficile de se représenter qu’un aspect fondamental de leur existence se retrouve tout simplement officiellement invisibilisé par les plateformes de communication et de l’information. C’est pourtant souvent le cas à travers ces politiques de censure.

       Lorsque les contenus ne sont pas tout simplement retirés des sites et applications d’hébergement en ligne, une autre technique (plus subtile, mais fort efficace) permet à ces sociétés de garantir une certaine régularisation des propos tenus. En effet, ce sont les utilisateur·ices ell·eux-mêmes qui choisissent de ne pas aborder tel sujet un peu sensible, ou de ne pas prononcer certains mots, qui seront tout de suite catalogués par les modèles d’IA traquant ces occurences. Cette grande stratégie passe par les standards de rémunération des créateur·ices de contenu en ligne. Nous pensons notamment à Youtube, qui ne supprime pas particulièrement de vidéos, mais qui démonétise les travaux parlant ouvertement de sexe, de substances, de violence. Or, le temps et le matériel nécessaires au tournage, au montage et à la diffusion de vidéos représentent un certain travail (écriture, concept, prise de vue, post-production, communication, régularité...) qui se doit d’être rémunéré à sa juste valeur. Beaucoup de Youtubeur·euses vont ainsi choisir, afin de préserver leur principale source de revenus, de changer leur manière de s’exprimer ou bien de censurer ell·eux-mêmes leur langage familier et autres références à ce que l’algorithme pourrait juger bon de censurer. Ces censures passent ainsi beaucoup par les propos (vocaux ou textuels). Les créateur·ices font en sorte de se relire afin de masquer les moments où leur langue a fourché. La censure se voit également beaucoup à l’écrit. De fait, TikTok ayant popularisé le format des vidéos courtes avec un message écrit accompagnant la vidéo, les utilisateur·ices cherchant à s’exprimer sur un sujet controversé et communément attaqué par cette censure post-internet trouvent des parades linguistiques pour se faire comprendre en toute sécurité. Le mot “sexe” se verra par exemple remplacé par l’éloquent “seggs”. Une autre technique assez utilisée va consister à utiliser des chiffres pour remplacer certaines lettres dans les mots, les rendant intraçables algorithmiquement. Il en va ainsi pour le mot “blood” qui deviendra “bl00d”, ou encore “viol” qui se changera en “vi0l”. Il n’y a pas vraiment de règles, si ce n’est le fait de ne pas se faire repérer par les contrôles de bienséance des sites en question, et de se faire comprendre. Des caractères spéciaux ainsi que des emojis pourront également être utilisés à ces fins : la seringue pour faire référence aux drogues dures, les fruits pour faire passer un message sexuel etc... On assiste donc ici à une subversion du langage, établie et autopoiétique dans le sens où i·el suffit de se promener un peu dans ces cyberpaysages médiatiques pour comprendre ces fonctionnements et adopter soi-même ces techniques. Une étonnante atmosphère se dégage alors de ces contenus, du conformisme le plus total (qui va avec l’utilisation de ces plateformes) à la volonté manifeste, rebelle et transgressive de s’exprimer malgré tout et de trouver des parades fonctionnelles à ces élans de censure.

       Enfin, une nouvelle tendance d’utilisation des réseaux sociaux qui s’est développée au cours des dernières années est celle du Trigger Warning. Cette pratique consiste à mentionner en amont du contenu en question qu’il contient des informations ou des éléments visuels à même de brusquer la sensibilité de certain·es utilisateur·ices, et alertent donc sur les potentiels effets néfastes desdits contenus. Littéralement “Alerte au Déclencheur”, le terme fait référence à ce déclic qui peut survenir lorsque l’on est confronté·e à une situation qui peut faire ressurgir en nous des souvenirs d’événements traumatiques. Par exemple, i·el s’agira de mettre une mention “tw : agression” ou “tw : sang et blessures” dans la description ou dans le montage-même du contenu partagé, en relation avec les thèmes abordés, à la manière des cartons d’alerte aux personnes épileptiques avant certains contenus stroboscopiques. Si jamais cela part d’une intention plus que louable, le phénomène des Trigger Warnings a pris beaucoup d’ampleur. Tout, aujourd’hui, peut-être sujet à cette mention. I·El faut dire que l’accent, ces dernières années, a aussi été placé sur les sensibilités mentales et psychologiques liés à des troubles et/ou à de mauvaises expériences. Ces conscientisations ont donc mené un certain nombre d’utilisateur·ices à s’ouvrir sur ces questions-là, à alerter sur leur contenu potentiellement marquant (à l’inverse de ces trolls des années 2010 qui cherchaient justement à traumatiser par humour déplacé) et ainsi à prendre des responsabilités par rapport à leur impact sur Internet. Là, nous voyons fleurir une tendance provenant des personnes qui évoluent sur les réseaux, et non des plateformes-mêmes. I·El se peut que les Trigger Warnings envahissent progressivement le web, et érigent énormément de thèmes qui seraient susceptibles de choquer, comme si nous étions devenus hypersensibles à tout un ensemble de situations et d’images. Ceci dit, ces alertes permettent de modérer les risques en partageant la responsabilité (celle de læ créateur·ice de prévenir quant à son contenu, et celle de læ spectateur·ice de regarder ou non le contenu en question). I·El s’agit donc d’une réappropriation positive des codes de la visualisation, sans pour autant décider de supprimer tout simplement des travaux au nom d’une sacro-sainte politique de censure.

       La volonté de censurer du contenu parce qu’il ne correspond pas aux conditions d’hébergement des différentes plateformes provient d’un retour du puritanisme américain sur Internet. Effectivement, certains courants de pensée sont à même de promouvoir une image extrêmement lisse du contenu en ligne, en mettant à mal toute représentation subversive, provocatrice ou contreculturelle. Les quelques sujets sur lesquels les algorithmes de contrôle jettent leur dévolu seront les thématiques sexuelles, violentes, en lien avec les substances ou les agressions. Toutefois, si le contenu-même ne montre parfois pas forcément frontalement des contenus explicites, i·el s’agit d’une traque de vocabulaire qui se déroule sur Internet. Les mots faisant référence aux thématiques citées seront identifiés par des modèles automatisés, et le contenu risque, en fonction des plateformes, soit d’être retiré, soit d’être shadowban (toujours public mais n’apparaissant ni par une recherche ni par les recommandations), soit d’être démonétisé, ce qui impacte grandement la rémunération des créateur·ices. Si choisir de purger Internet de certains contenus jugés comme étant dangereux n’est pas forcément une mauvaise idée pour les cas les plus extrêmes (pornographie, images de blessures, d’accidents, visuels d’attentats terroristes etc), la pratique s’est étendue aux contenus discursifs sur certains sujets, ce qui place une omerta intellectuelle dessus. La discussion sur des thèmes tout de même importants (rapport à des troubles physiques et/ou mentaux, au sexe ou à des comportements problématiques, à la consommation de substances) n’est plus possible qu’au travers de méthodes détournées, comme l’auto-censure ou le fait de changer l’orthographe de certains mots-clés. Or, ces sujets de société restent fondamentaux (de même que le droit et la liberté de s’exprimer et de partager du contenu), et l’on cherche alors, au lieu de libérer la parole et d’encourager le dialogue, à les occulter complètement. Et ceci dans l’idée de façonner un monde sans violence ni sexualité ? Que ces sujets restent en réalité invisibles et cachés du grand public, comme si le fait de ne pas les mentionner allait les faire disparaître ? On est donc à des années-lumières de la libre expression rêvée par les internautes du commencement, mais plutôt dans le regain d’un obscurantisme qui conquiert jusqu’aux sphères du cyberespace par un monopole du discours bienpensant et d’une utopie presque infantile.
©ellislaurens2024
EAS ED APESA
contact