Lutter contre la haine sur internet

Par Olivier Ertzscheid

22/02/2015

Source : http://affordance.typepad.com

J’aurais du être aujourd’hui, à l’invitation de l’UEJF, aux « 1ères assises de la lutte contre la haine sur internet. » (Vous pouvez suivre en direct le déroulement des assises via le hashtag #assisesinternet)

Pour différentes raisons (personnelles), je n’y étais finalement pas. Mais mon intervention étant prête, je le mets à disposition.

Cette contribution s’inspire de deux textes récemment publiés sur ce blog :

Le diaporama est disponible ci-dessous. Juste avant, retour sur quelques points qui y sont évoqués.

#DiscoursDeLaHaine ? C’est compliqué.

D’abord il n’y a pas de « discours type de la haine » (diapos 3 et 4). A quelques rares exceptions qui font l’unanimité, comme la diffusion de ces vidéos de décapitation ou les insultes ouvertement racistes, la plupart des cas qui posent problème ne sont des discours de haine qu’au regard de certains contextes ou de certaines communautés : c’est le cas des caricatures du prophète, c’est aussi le cas de certaines « blagues » accolées au hashtag #UnBonJuif.

La question est alors de savoir « qui décide » de laisser diffuser ces contenus (diapos 5 et 6), et surtout sur quels critères : 4 possibilités : la justice, nous-mêmes, le code (les algorithmes) ou les plateformes elles-mêmes.

Code is Law.

Il faut remettre en perspective, à l’échelle du web-média, les bouleversements qui ont eu lieu dans notre perception (ou nos aspirations) de la légitimité d’un discours (diapos 8 à 11). Avec ces 3 grandes étapes qui furent, en 1996, la déclaration d’indépendance du cyberespace (« il n’y a pas de lois ici »), l’article « Code is Law » de Lessig en janvier 2000, et la récente déclaration de Mark Zuckerberg qui place, de facto, sa plateforme au-dessus et à l’extérieur des lois (« nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde« ). Vous noterez l’emploi du présent dans la déclaration de Zuckerberg qui indique qu’il a déjà « acté » cette pratique et qu’il la considère comme parfaitement légitime (culture du 1er amendement de la constitution américaine), toute la question étant de savoir ce que devient cette pratique « libertarienne » si on la déplace dans un contexte moins « unanimiste » que celui de la réaction aux attentats contre Charlie Hebdo.

Il faut ensuite acter l’état actuel des législations (américaines, françaises, etc.) qui disposent en l’état d’un arsenal de textes déjà largement suffisant (diapo 13) pour encadrer, pour « surveiller et punir » dirait Foucault, l’expression des discours de haine. Des lois certes controversées, mais des lois existantes et directement applicables. A condition de ne jamais zapper la case justice. A ces législations s’ajoutent des plateformes qui permettent de signaler l’expression des discours de haine (plateforme Pharos en France) et des phénomènes d’auto-régulation et d’auto-censure liés à l’architecture en panoptique de la plupart des réseaux sociaux dans lesquels nous sommes à la fois le gardien (« big brother ») et les prisonniers (« little sisters »).

Batrob

La tyrannie des agissants : « désengagez-vous qu’ils disaient »

Il faut, enfin, accepter, reconnaître et comprendre un certain nombre de principes « simples » qui caractérisent les modes d’expression sur le réseau : le premier d’entre eux (diapo 13) est la « tyrannie des agissants » décrite par Dominique Cardon (« Internet donne une prime incroyable à ceux qui font« ). Comprendre également la nature des processus d’engagement en ligne (diapos 18 à 21), lequel « engagement » déterminera ensuite la portée et le risque réel associé aux discours de haine qu’il sous-tend. Or en la matière, il faut constater, comme l’a rappelé l’affaire du « soutien au bijoutier de Nice », que 1 million de like n’équivaut pas à un million de soutiens, qu’une personne « soutenant » en ligne un certain type de discours n’est pas nécessairement prête à « s’engager » derrière ce discours, fut-il un discours de haine ou, d’ailleurs, un discours de paix. L’engagement en ligne est le plus souvent une forme de désengagement (« slacktivisme« ).

A propos de l’engagement, Merleau-Ponty écrivait :

« Tout engagement est ambigu puisqu’il est à la fois l’affirmation et la restriction d’une liberté : je m’engage à rendre ce service, cela veut dire à la fois que je pourrai ne pas le rendre et que je décide d’exclure cette possibilité.« 

Or précisément, sur les internets, le « like » ou le slacktivisme est une forme d’engagement monoface : « liker » une « cause » ou un « discours » c’est exclure la possibilité de rendre réellement un service. Et la plupart du temps … c’est tout.

Ceci étant posé, oui, il y a bien un discours de haine présent sur internet. Comme d’ailleurs dans le PMU du coin. C’est vouloir les traiter de la même manière, c’est leur accorder la même importance qui serait une erreur. Car ces discours de haine sur internet obéissent à des logiques propres qui tournent autour de 4 effets contre-intuitifs (diapos 23 et 24).

4 effets contre intuitifs.

L’effet petit pois (comme dans le conte de la princesse au petit pois) fait que l’on se focalise souvent – et particulièrement dans le cadre de l’analyse des discours de haine – sur des phénomènes relevant de l’infinitésimal. Il s’agit d’une erreur sur « l’ordre de grandeur » de ces phénomènes ou de ces discours. Pour s’en convaincre on pourra relire ces deux illustrations de l’effet petit pois que furent le traitement du hashtag #jesuiskouachi ou celui de #jenesuispascharlie.

L’effet miroir consiste à interpréter ces mêmes phénomènes à l’inverse de ce qu’ils signifient réellement. Là encore, en termes d’ordre de grandeur, pour 100 000 « je suis charlie » on dénombrait à peine 100 « je ne suis pas charlie », et sur ces 100 « je ne suis pas charlie », 99 reprenaient le hashtag mais pour condamner celui qui l’avait utilisé.

L’effet Streisand, le plus connu et le plus ancien à l’échelle du web, consiste à croire que supprimer ces contenus serait « la » solution alors que chaque suppression ne fait qu’accélérer la duplication et l’audience des contenus, des propos ou des discours visés.

L’effet cigogne, enfin, qui est le résultat de la somme des 3 effets précédents et qui consiste à confondre corrélation et causalité. En gros « il y a beaucoup d’appels à la haine sur internet, donc internet incite à la haine« . Ben non.

Le problème est que la plupart des approches visant à lutter contre ces discours de haine, qu’il s’agisse du discours politique ou de l’action législative ignorent presque totalement ces 4 effets.

Bain d’acide : qu’importe le caleçon ou le slip de bain.

Et l’autre problème qui explique qu’il soit si difficile de dégager un concensus efficace autour de la manière de les contrer est que la hiérarchie entre « la loi », « les réglements intérieurs » et « le code » est désormais totalement inversée (diapos 26 et 27).

. Diapositive26

Si je reprends un exemple qui m’est cher, assimilant les CGU à ce qu’elles sont réellement, c’est à dire rien d’autre que l’équivalent du règlement intérieur d’une piscine privée vous interdisant de porter des caleçons de bain, on peut alors, par extension, considérer d’une part « la loi » qui régit l’espace public de la baignade sur les plages (et qui n’a vocation qu’à autoriser ou à interdire la baignade dans certaines zones), et d’autre part « le code » qui serait alors la composition de l’élément liquide dans lequel on va se baigner ou non, en caleçon ou en slip de bain. Si le code se compose de 2 atomes d’hydrogène et d’un atome d’oxygène, alors nous sommes dans de l’eau. Tout va bien. Si l’on change quelques éléments seulement de ce code, on se trouve à patauger dans de l’acide chlorydrique. L’expérience de la baignade en est radicalement changée.

Diapositive27

Dans l’environnement numérique, c’est ce code qui prédomine. C’est la manière dont sont agencés les différents « critères » algorithmiques, les différents « atomes » du code, c’est la finalité qui leur est assignée par les ingénieurs et les plateformes qui détermine l’expérience, la nature et la portée des discours qu’ils véhiculent, qu’ils organisent, qu’ils filtrent, qu’ils trient en permanence et dans la plus totale opacité.

La bonne loi, la brute réglementaire et le truand du code.

La loi. Les réglements (CGU). Et le code. Nouvelle version de la trilogie « Le bon, la brute et le truand ». Dans l’ordre. Une trilogie dans laquelle le « nul n’est censé ignorer la loi« , devient, à partir du moment où le code est la loi, « nulle loi ne peut plus se permettre d’ignorer le code« , permettant du même coup que Mark Zuckerberg écrive « nous ne laissons jamais un pays ou un groupe de gens dicter ce que les gens peuvent partager à travers le monde » sans que personne d’autre que le type en train de rédiger ce billet ne semble s’en émouvoir outre mesure (diapos 28 et 29).

Et donc on fait quoi, #GrosMalin ?

D’abord on constate (diapo 31). On constate que tout le débat sur « comment lutter contre les discours de la haine » ne concerne pas « internet » mais concerne ses jardins fermés, c’est à dire les « plateformes » que sont Facebook, Twitter mais aussi de plus en plus Google en tant qu’écosystème de services (via Youtube notamment). Donc on agit au niveau des plateformes et pas au niveau d’internet (pour lequel, je répète, y’a déjà suffisamment de lois qui fonctionnent et s’appliquent).

On constate que ce sont les algos des plateformes qui ont à la fois pouvoir de police et de justice, dans la plus totale opacité, et qui décident de publier telle ou telle vidéo, de laisser passer tel ou tel #hashtag. Bref on constate que les algorithmes sont ces nouvelles « corporations du filtre » (l’expression est d’Umberto Eco) comme l’étaient hier les éditeurs et les rédactions de médias « papier ».

On constate que ces choix (laisser passer, laisser publier, etc.) relèvent d’un processus d’éditorialisation classique. On constate que les algorithmes font des choix d’éditorialisation classique.

On constate également qu’il serait vain et absurde (sauf à vouloir singer la corée du nord ou la chine) de demander aux plateformes de modérer « a priori » les millions de contenus publiés chaque minute. Et que c’est faire fausse route que de s’abriter uniquement derrière la logique de l’application du droit national sur Internet (cf la déclaration de Zuckerberg notamment …).

Donc on oblige, on contraint, par voie législative et à une échelle trans-nationale (comme par exemple la convention de Berne permet de la faire pour la protection des oeuvres littéraires et artistiques), on contraint les plateformes à rendre publique la partie du code qui détermine ces choix d’éditorialisation classique. Et ce faisant, à mettre en délibéré cette partie du code. Parce que, comme le disait Stiegler, « la démocratie est d’abord un exercice de rendu public. »

Voilà pour l’essentiel. Voilà pour l’urgence.

Et puis bien sûr on est conscient qu’il ne faut pas s’arrêter là. Conscient qu’il ne faut pas tout attendre du politique ni des plateformes, car comme l’écrivait encore Dominique Cardon : « Internet joue en effet un rôle majeur dans l’émancipation, dans l’auto-organisation de la société civile, sans que ses acteurs aient nécessairement à se préoccuper du centre de la société que seraient l’exécutif et la démocratie représentative…« .

Conscient qu’il ne faut à aucun prix laisser ces plateformes devenir une métonymie castratrice du web, car les cas échéant, rien ne les empêcherait plus d’y imposer leur loi, une loi qui ne serait même plus celle du code mais celle de leur code. Double peine (diapo 32).

Conscients enfin des avertissements déjà lancés, déjà écrits. Celui de Lessig en Janvier 2000.

« (…) La loi du cyberespace sera déterminée par la manière dont le cyberespace sera codé, mais nous aurons échoué à jouer notre rôle dans l’établissement de cette loi.« 

En Janvier 2015, nous n’avons jamais été aussi près d’échouer.

 

Advertisements

Laisser un commentaire

Entrez vos coordonnées ci-dessous ou cliquez sur une icône pour vous connecter:

Logo WordPress.com

Vous commentez à l'aide de votre compte WordPress.com. Déconnexion / Changer )

Image Twitter

Vous commentez à l'aide de votre compte Twitter. Déconnexion / Changer )

Photo Facebook

Vous commentez à l'aide de votre compte Facebook. Déconnexion / Changer )

Photo Google+

Vous commentez à l'aide de votre compte Google+. Déconnexion / Changer )

Connexion à %s