Diffusion, radicalisation et normalisation des rhétoriques d’extrême droite sur Internet

Dans cet article, Mathieu Forcier, coordonnateur des droits de la personne au Musée de l’Holocauste de Montréal, examine la prolifération de rhétoriques dangereuses dans le monde en ligne.

Écrit par Mathieu Forcier, PhD

Mis en ligne le 13 mai 2021

En novembre dernier, l’acteur Sacha Baron Cohen a fait les manchettes après avoir écorché les géants du web lors d’un discours à l’Anti-Defamation League (ADL), arguant que ces derniers rendaient possible la prolifération des discours haineux et de la désinformation (Baron Cohen, 2019).

L’acteur a notamment décrit les grandes compagnies de l’industrie comme formant « la plus grande machine de propagande de l’histoire » et a affirmé que Facebook aurait laissé Hitler acheter des publicités sur sa plateforme. Certes, Baron Cohen n’est pas un universitaire expert dans le domaine du racisme en ligne, mais son discours s’appuyait sur des faits rapportés par des enquêtes journalistiques et académiques.

Facebook a répondu formellement à ces critiques en soutenant qu’elles ne rendaient pas justice aux politiques de la compagnie qui interdisent le discours haineux et prévoient le bannissement des acteurs qui font la promotion de la violence. Or, de nombreux observateurs n’ont pas manqué de souligner les écarts entre les politiques officielles de ces compagnies et les réalités observées sur leurs plateformes.

Facebook, Twitter et Google ont tous adopté des politiques concernant le contenu haineux. Celles-ci varient d’une plateforme à l’autre et sont sujettes à des modifications sous la pression du public et des États qui réagissent à la hausse de l’expression raciste décomplexée et à des événements violents liés à l’écologie extrémiste en ligne.

Par exemple, en mars 2019, Facebook a annoncé une nouvelle politique qui interdit la célébration, le soutien ou la représentation explicite du nationalisme blanc et du séparatisme blanc. Jusqu’alors, seul le suprématisme blanc1 faisait l’objet d’une réglementation.

Cette décision n’a pas été prise à l’initiative de Facebook, mais bien sous la pression de la société civile et des groupes de défense des droits civiques dans le contexte de l’attentat terroriste islamophobe à Christchurch en Nouvelle-Zélande. Rappelons que le terroriste avait diffusé en direct ses attaques sur Facebook. Or, cette nouvelle politique risque d’avoir des effets marginaux dans la mesure où elle n’interdit pas les contenus qui font la promotion de l’idéologie nationaliste blanche, mais bien ceux qui utilisent explicitement le terme (AFP, 2019).

En dépit de ces politiques corporatives, les discours racistes continuent de se propager en ligne comme autant de menaces à la démocratie libérale, à la citoyenneté pluraliste et à la sécurité des minorités racisées. Qui plus est, plusieurs groupes nationalistes blancs continuent d’opérer librement sur cette plateforme, notamment par le biais de pages qui prennent la forme de sites d’informations réguliers, mais qui diffusent de la propagande anti-immigration, raciste, antisémite et islamophobe (Carrie Wong, 2019).

Malgré le fait que ces groupes soient des exemples types du nationalisme blanc, Facebook juge qu’ils ne violent pas ses politiques. Dans d’autres cas, des groupes explicitement bannis de la plateforme, comme les Soldats d’Odin au Canada, continuent d’opérer et de recruter des membres ou se reforment sous un nom légèrement altéré (Lytvynenko, Silverman et Boutilier, 2019).

Les effets de l’aveuglement de l’industrie

Internet et racisme sont si étroitement associés aujourd’hui que l’on oublie que, dans les années 1990, il régnait une forte croyance selon laquelle le web allait mener à un nouvel élan démocratique en donnant lieu à un espace mondial de partage d’informations qui permettrait de dépasser les inégalités statutaires. Cette idée est au cœur de la mise en marché du web 2.0, c’est-à-dire des médias dits sociaux, participatifs, égalitaires et neutres, où les différences liées à la race, l’origine nationale, le genre et autres seraient dépassées.

Or, la littérature scientifique montre bien que les inégalités sociales structurent le web et les interactions qui s’y déploient, c’est-à-dire que les dynamiques de marginalisation, de stigmatisation et d’exclusion que l’on observe hors ligne sont transposées en ligne. Cette croyance en la neutralité raciale du web a des effets continus encore aujourd’hui, notamment dans l’idée selon laquelle le racisme est un élément externe au système et le fait d’extrémistes marginaux qui viennent corrompre la nature d’un espace autrement démocratique et égalitaire.

En vérité, la présence du racisme explicite en ligne est étroitement liée à l’aveuglement de l’industrie par rapport à la race (color-blindness). C’est dans ce sens que Jessie Daniels (2018) parle d’une montée algorithmique de l’Alt-Right, c’est-à-dire que la croissance du nationalisme blanc observée aujourd’hui aurait été impossible sans les opportunités du web et que ces opportunités sont rendues possibles par l’aveuglement de l’industrie.

Le web 2.0 a permis aux extrémistes de droite de sortir des marges, d’influencer l’opinion publique et de normaliser des éléments centraux de leurs discours. Avant l’ère des médias sociaux, ils avaient recours à Internet pour développer leurs idées et faciliter leur organisation, mais les interactions avec le grand public ou avec des individus qui ne sont pas affiliés à des groupes de cette mouvance étaient marginales.

On les retrouvait principalement sur des forums suprématistes comme Stormfront, relativement isolés dans l’écologie numérique. Une des premières formes de dissémination numérique de la propagande suprématiste hors des cercles extrémistes était l’utilisation de sites masqués (Daniels, 2009).

Des groupes ou des individus utilisaient cette technique pour masquer leur affiliation idéologique et subtilement faire circuler leurs idées politiques à travers des sites qui prenaient la forme de sites d’éducation neutre. Par exemple, des sites sur l’esclavage, l’Holocauste et le mouvement pour les droits civiques mettaient de l’avant des thèses révisionnistes et négationnistes.

Alt-Right, la marge qui veut imposer son idéologie

Avec l’arrivée des médias sociaux, les possibilités de dissémination de la propagande raciste ont explosé. Les suprématistes et nationalistes blancs ont à nouveau montré à quel point ils sont des opportunistes. Toutes les nouveautés technologiques comme tous les thèmes faisant l’objet de débats publics sont instrumentalisés afin de mettre de l’avant la propagande d’extrême droite.

Ces racistes tirent donc profit de la rupture avec les canaux de communication médiatique traditionnels. Désormais, tous peuvent être exposés à leurs idées, sans qu’elles doivent passer par le filtre des organes de presse ou même sans que les utilisateurs cherchent à y avoir accès. Qui plus est, l’extrême droite profite à la fois de l’économie politique du web qui valorise la liberté d’expression et du cadre légal états-unien laxiste auxquelles les entreprises des médias sociaux sont soumises.

Aujourd’hui, la mouvance extrémiste de droite la plus influente en ligne est celle de l’Alt-Right ainsi que sa forme plus « modérée » et plus large audience, l’Alt-lite.2 Ce mouvement né aux États-Unis s’est principalement fait connaître dans la foulée de la dernière campagne présidentielle.

Le phénomène dépasse largement les frontières de nos voisins du Sud et influence notamment les groupes et individus aux idéologies apparentées au Canada et au Québec (Tanner et Campana, 2019). À la différence des partis politiques et organisations d’extrême droite, l’Alt-Right ne constitue pas un mouvement unifié avec une hiérarchie et une structure organisationnelle formelles.

Prenant racine sur le web, il fonctionne en réseau et regroupe différentes idéologies racistes. Ce mouvement hétéroclite se rassemble autour de trois idées clés : 1) les Blancs sont menacés et assiégés par les forces multiculturelles, l’immigration et les minorités; 2) la masculinité blanche est menacée par sous-attaque en raison de la gauche féministe et les mouvements LGBTQ+; 3) la liberté d’expression est menacée par les élites et la gauche politiquement correcte.

La propagande raciste produite est donc indissociable du masculinisme et des théories du complot.

Les liens étroits entre l’extrême droite et la culture du web

Bien qu’ils puisent dans l’imagerie et les stéréotypes préexistants, les contenus racistes produits par l’Alt-Right sont profondément enracinés dans la culture du web. Une des images centrales de cet univers est celle de la pilule rouge, tirée du film culte The Matrix.

Les adeptes se donnent pour objectif de faire prendre la pilule rouge (redpilling) aux « normies », c’est-à-dire de les débrancher du monde des mensonges soutenu par les médias et de les faire entrer dans le « monde réel », un monde façonné par diverses théories du complot et paranoïas identitaires/raciales.

L’objectif énoncé par cette mouvance est de normaliser les thèmes et rhétoriques qui étaient jusqu’à récemment associés à l’extrême droite, soit l’identité blanche/ occidentale, l’immigration et les droits des minorités. Ces idées racistes sont promues en ligne en adoptant un langage et des formes qui permettront aux contenus de devenir viraux ou de subtilement pénétrer l’imaginaire public.

Les nationalistes blancs utilisent le même langage que la jeunesse d’aujourd’hui, ses codes culturels, son type d’humour, etc. De l’aveu même de la figure de proue de l’Alt-Right, le néonazi Richard Spencer, ce mouvement cible ce public en créant des espaces de révolte pour de jeunes blancs frustrés, profondément racistes ou qui prennent plaisir à « troller3 » pour se révolter contre le « politiquement correct ».

En effet, l’extrême droite exploite les frustrations et sentiments de révolte de jeunes hommes blancs pour propager leurs rhétoriques xénophobes, racistes, islamophobes, antisémites et misogynes, et ce, principalement à travers l’humour satirique populaire sur le web (Marwick et Lewis, 2017 ; Greene, 2019).

Une des voies principales de dissémination de la propagande nationaliste blanche est l’utilisation des mèmes4. D’ailleurs, l’Alt-Right s’est constituée sur le forum /pol/ (politically incorrect) du réseau social de partage d’images 4chan où plusieurs mèmes sont nés.

Par exemple, Pepe the frog, personnage célèbre dans la culture web, a été investi par l’Alt-Right pour que ses idées profitent de son caractère viral, et ce au point où le personnage est devenu la mascotte du mouvement et est aujourd’hui considéré comme un symbole haineux par l’Anti-Defamation League.

Les traits dominants de l’extrême droite en ligne

Au sein de la propagande des nationalistes blancs en ligne, le thème le plus populaire est celui du « génocide blanc ». Par-là, ils entendent que l’immigration non- blanche, les politiques multiculturelles et les unions mixtes mettent en danger la « race blanche » et la domination des Blancs au sein des sociétés nationales occidentales.

Un slogan populaire est celui de « diversity = white genocide ». Il sera par exemple apposé sur des photos de classe où l’on ne voit qu’un seul enfant blanc. À travers sa circulation sur les médias sociaux, cette vieille rhétorique de l’extrême droite gagne aujourd’hui en influence et mousse le discours du racisme à l’envers, ou racisme anti-blanc, qui soutient une idéologie politique nationaliste hostile à l’immigration et aux droits des minorités.

En Amérique du Nord comme en Europe, les idéologies apparentées du génocide blanc et du grand remplacement impliquent régulièrement des tropes antisémites. Par exemple, en 2016, un mème de l’Alt-Right montrait Hilary Clinton avec le visage du financier et philanthrope juif hongro-états-unien George Soros.

Dans la continuité de l’antisémitisme des Protocoles des Sages de Sion5, Soros est présenté comme la figure maîtresse d’un complot mondialiste, antinational et gauchiste qui souhaiterait, sinon détruire, diluer, la nature blanche et chrétienne des sociétés occidentales, et ce, à travers l’immigration issue du Sud global. Cette rhétorique du génocide blanc et sa variante du grand remplacement sont d’ailleurs centrales aux attentats terroristes antisémites et islamophobes de Pittsburgh et Christchurch.

Cette mouvance est particulièrement active sur d’autres plateformes où les utilisateurs bénéficient d’une très large liberté d’expression, incluant l’expression haineuse (8kun/8chan, Reddit, Gab, etc.). Ils ne s’y limitent toutefois pas puisque leur objectif est d’opérer une modification profonde des mentalités et un glissement du débat public vers leurs thèmes de prédilection.

C’est pourquoi ils investissent de plus en plus le terrain des médias sociaux les plus mainstream, soit Facebook, Twitter, Instagram et YouTube. La propagande y prend des formes plus subtiles et masque ses origines d’extrême droite, mais n’en maintient pas moins les mêmes cibles, les musulmans, les immigrants, les Juifs, les féministes, la gauche, etc. Aux États-Unis, même si l’Alt-Right se dit aujourd’hui trahie par Trump, ce dernier n’en a pas moins lourdement contribué à normaliser sa rhétorique anti-immigration.

Les nationalistes blancs sont des opportunistes qui exploitent les possibilités du web pour mener leurs attaques et diffuser leurs idées racistes6. Les algorithmes favorisent la propagation des idéologies racistes, que ce soit en facilitant la connexion des individus et groupes d’extrême droite ou en proposant des résultats de recherche et des contenus racistes.

Par exemple, l’algorithme de recommandation de YouTube mène des utilisateurs vers des vidéos et des chaines de théories du complot et contribue à la radicalisation d’extrême droite (O’Callaghan et coll. 2015 ; Kaiser et Rauchfleisch, 2018).

L’extrême droite tire donc profit du modèle d’affaire des médias sociaux qui, faut-il le rappeler, sont d’abord et avant tout des entreprises privées motivées par le profit et qui tirent la majorité de leurs revenus de la vente de publicités ciblées, basée sur les algorithmes. L’objectif est de rendre l’utilisateur captif et de générer du « clic » qui se traduit en revenus.

Ultimement, l’extrême droite utilise les algorithmes des médias sociaux et suit le modèle des influenceurs pour créer une communauté d’abonnés, délégitimer les médias traditionnels, diffuser ses idées racistes et en tirer des revenus (Lewis, 2018). Qui plus est, les contenus émotifs et provocateurs circulent souvent plus facilement sur les médias sociaux.

Désinformation et populisme

La recherche montre que les fausses nouvelles se diffusent plus rapidement et rejoignent davantage d’utilisateurs que les informations véridiques (Vosoughi, Roy et Aral, 2018). Les médias sociaux sont en phase avec un âge politique de l’affect où les sentiments ont davantage de poids que les faits.

Plusieurs études soulignent l’importance grandissante de la production de fausses nouvelles mue par des intérêts économiques et politiques, notamment dans le contexte de l’élection présidentielle états-unienne de 2016 (Persily, 2017 ; Hunt et Gentzkow, 2017 ; Sunstein, 2017).

Des individus anonymes sont en mesure de créer de fausses pages musulmanes sur Facebook afin de susciter la peur du public en faisant croire à des complots islamistes en Occident et en favorisant ainsi le développement de l’islamophobie (Farkas, Schou et Neumayer, 2018).

Pareillement, sur Twitter, des trolls nationalistes et suprématistes blancs utilisent de faux profils avec de fausses identités de minorités (ex. un juif avec une kippa ou une musulmane avec un hijab), encourageant ainsi, d’une part, l’idée du « racisme anti blanc » et, d’autre part, l’animosité entre les minorités de façon à saper leur solidarité contre l’extrême droite.7

Les producteurs de fausses nouvelles et de contenus haineux tirent profit de la propension des utilisateurs à croire aux contenus qui vont dans le sens de leurs opinions. Ils instrumentalisent donc les ressentiments, préjugés et stéréotypes racistes préexistants, et ce à des fins politiques et mercantiles.

Le design des médias sociaux est tel que la visibilité et la popularité d’une nouvelle deviennent garantes de sa crédibilité. À cet égard, plusieurs études documentent l’affinité entre les médias sociaux et la communication populiste de droite (Engesser et al., 2016; KhosraviNik, 2017 ; Ernst et al., 2017 ; Gerbaudo, 2018). Le populisme carbure à la représentation du peuple formé de citoyens sans-voix et les médias sociaux sont des instruments de récupération et de production de discours nationalistes antidémocratiques et exclusifs.

Ils permettent d’avoir un accès direct au public sans interférences journalistiques, de suggérer une connexion directe avec le peuple, d’attaquer les élites et d’ostraciser les minorités et les étrangers (Hameleers et Shcmuck, 2017). Il n’est alors pas surprenant de constater l’importante utilisation des médias sociaux par les politiciens de droite populiste radicale.

Évidemment, la question du racisme en ligne ne se limite pas aux groupes et aux acteurs politiques d’extrême droite. Nous sommes à l’ère du « Ne lisez pas les commentaires », c’est-à-dire que, au-delà des réseaux haineux, les médias sociaux et les sections commentaires ont fait exploser la visibilité d’attitudes xénophobes et racistes (Loke, 2012 ; Hughey et Daniels, 2013 ; Santana, 2015 ; Faulkner et Bliuc, 2016 ; Matamoros-Fernández-2017).

Internet est un espace où cohabitent des formes ouvertes et haineuses de racisme et des formes plus subtiles et socialement acceptables, notamment à travers les représentations de l’immigration et des musulmans comme menace culturelle, démographique, sécuritaire et économique pour la « nation » (Chao 2015 ; Awan, 2016 ; Forcier, 2019). Les individus ont souvent recours au déni du racisme et des privilèges liés à la blanchité dans les discussions en ligne, tout en mettant de l’avant des postures exclusivistes ou discriminatoires.

Sans être formellement aussi violente que la propagande haineuse d’extrême droite, l’expression publique normalisée de commentaires nationalistes xénophobes et racistes participe tout de même à la reproduction d’inégalités, de discriminations et de sentiments d’exclusion et d’insécurité chez les membres de minorités racialisées.

Détection et modération

Compte tenu de l’étendue du phénomène, la pression se fait grandissante pour une amélioration de la modération du contenu en ligne. Les géants du web développent des « armées » de modérateurs du web et ont recours à la détection automatisée. Or, cette dernière est problématique à plusieurs égards, notamment parce qu’elle n’est pas sensible au contexte et qu’elle peut aussi reproduire des biais racistes.8

Les politiques corporatives de modération sont aussi de plus en plus sous le feu des projecteurs en raison de leurs incohérences. Par exemple, alors que Facebook dit vouloir interdire les contenus haineux d’extrême droite, Mark Zuckerberg persiste à refuser de bannir les propos qui nient l’Holocauste sous prétexte que les individus devraient être libres de tenir des propos faux, tant et aussi longtemps que cela n’est pas accompagné de menaces à la sécurité d’individus.

Or, le déni de l’Holocauste n’est pas une opinion erronée, mais bien une rhétorique qui appartient à l’agenda antisémite en jouant sur le stéréotype du Juif manipulateur. De façon similaire, lorsque questionné en 2017 sur une vidéo YouTube du leader suprématiste blanc David Duke titrée « Jews admit organising white genocide », un cadre supérieur de Google a reconnu que la vidéo était antisémite, mais il a noté qu’elle n’enfreignait pas la limite de la haine en ligne.

Rôle des législateurs

L’évolution des politiques de modération du contenu chez les géants de l’industrie montre que l’action de la société civile et des États est nécessaire pour améliorer l’imputabilité des producteurs et diffuseurs de contenus haineux en ligne. Dans un contexte où les géants du web peinent à respecter leurs propres politiques, plusieurs considèrent qu’il revient au législateur de fixer les paramètres de la liberté d’expression, de protéger les individus des discours haineux et de contraindre ces entreprises privées à se conformer aux législations locales.

À cet égard, l’Allemagne dispose de la législation la plus sévère depuis 2018 avec la loi NetzDG qui force les plateformes à supprimer les contenus illicites, et ce, sous peine d’amendes. La France et le Royaume-Uni pensent s’en inspirer. Selon la Commission européenne, deux ans après s’être engagés, à travers un code de conduite, à augmenter leurs efforts pour retirer les discours haineux illégaux, Facebook, Twitter et YouTube ont substantiellement amélioré leur taux et leur rapidité de suppression de ce type de contenus.

En décembre 2018, 72 % du contenu jugé illégal était retiré, contre seulement 28 % en 2016 (European Commission, 2019). Récemment, la Cour européenne de justice a statué que des États membres peuvent forcer Facebook à retirer des contenus au niveau mondial si le contenu est jugé illégal dans un État membre (Satariano, 2019).

Il importe aussi que les entreprises fassent preuve de responsabilité en respectant leurs propres politiques, et ce, plus encore dans des sociétés non libérales où les droits des minorités ne sont pas protégés par l’État. Par exemple, au Myanmar, Facebook a laissé des militaires birmans utiliser la plateforme pour en faire un outil de propagande nationaliste islamophobe en propageant de fausses nouvelles sur la minorité rohingya et en incitant au génocide (Mozur, 2018).

Enfin, compte tenu de la connexion intime entre les réalités en ligne et hors ligne, la lutte contre le racisme en ligne ne peut être significative que si elle est intégrée dans une lutte globale contre les inégalités et discriminations raciales. Cela est d’autant plus vrai que le discours haineux n’est qu’une des manifestations du racisme en ligne.

Internet et les algorithmes sont des productions humaines et sociales qui reproduisent implicitement des biais raciaux et qui ont des effets discriminatoires réels et quotidiens pour des minorités racialisées.9

Mathieu Forcier est coordonnateur des droits de la personne au Musée de l’Holocauste de Montréal.

Cet article est paru à l’origine dans la revue Traces, volume 58, numéro 1, hiver 2020, pages 28 à 33. La revue est publiée par la Société des professeurs d’histoire du Québec (SPHQ).

La SPHQ a pour mission de promouvoir l’enseignement de l’histoire au Québec sous tous ses aspects, auprès de ses membres et de la population en général et de contribuer à assurer la transmission de l’information et le développement des professionnels de l’enseignement.


Notes

1.    Le suprématisme blanc prône la supériorité de la « race blanche » sur les autres « races ». Le séparatisme est une forme de suprématisme qui fait la promotion de la séparation physique entre les Blancs et les autres « races ». Le nationalisme blanc milite en faveur de l’établissement d’un État-nation pour les Blancs. Les nationalistes blancs ont tendance à éviter de parler de hiérarchies raciales et avancent plutôt que toutes les « races » devraient avoir leur État. Dans les faits, le nationalisme blanc épouse, même implicitement, l’idéologie de hiérarchies raciales avec les Blancs au sommet.

2.    L’Alt-lite se veut une forme « modérée » de l’Alt-Right et adopte la forme de médias d’information alternatifs. On pense notamment à Breitbart News aux États-Unis, à The Rebel au Canada anglais et à Nomos TV au Québec. Dans les faits, l’Alt-Right et l’Alt-lite appartiennent toutes deux à l’extrême droite et partagent un ensemble d’idées racistes.

3.    De l’anglais to troll. Un troll est un internaute qui publie des contenus provocateurs ou offensants afin de générer une polémique.

4.    Sur Internet, un mème désigne une image avec un court contenu textuel accrocheur.

5.    Le livre Les Protocoles des Sages de Sion est au faux publié au début du 20e siècle dans l’Empire russe. Il prétend rendre compte de réunions secrètes de Juifs et de leur plan pour conquérir le monde. Malgré le caractère fallacieux de l’ouvrage, il a été publié en plusieurs langues et a alimenté le trope antisémite du complot juif. Hitler y a notamment fait référence dans Mein Kampf.

6.    Un exemple patent est celui de l’utilisation du symbole antisémite des triples parenthèses ou (((echo))) sur les médias sociaux pour attaquer des personnes juives sur les médias sociaux, notamment les journalistes critiques de Trump. Chaque parenthèse est censée représenter l’influence destructrice des Juifs via les médias de masse, l’immigration de masse et la juiverie internationale. Une fois que des utilisateurs étaient identifiés comme Juifs par ce symbole, une horde d’utilisateurs antisémites lançaient leur attaque en réseau. Une extension a même été créée sur Google pour apposer de façon automatique ces triples parenthèses sur des noms d’individus juifs. Google n’a supprimé cette extension qu’après la publication d’un article médiatique dénonçant la situation.

7.    Le journaliste Yair Rosenberg a créé un bot (programme) appelé « Impostor Buster » qui identifiait les imposteurs néonazis et qui leur répondait automatiquement afin de les démasquer. Twitter a finalement suspendu le compte après que ces derniers se soient plaints de harcèlement.

8.    Des études montrent effectivement que les algorithmes de détection du discours haineux sont biaisés à l’endroit des personnes noires (Sap et al., 2019 ; Davidson, Bhattacharya et Weber, 2019). De même, alors que des discours suprématistes et nationalistes blancs sont maintenus en ligne, des personnes noires voient leur compte suspendu du fait de leur activisme antiraciste.

9.    Les algorithmes reproduisent notamment des discriminations en limitant l’exposition à des offres d’emploi et de logement, en limitant l’accès aux soins de santé, en proposant des taux de crédit plus élevés et en favorisant la criminalisation.

Références bibliographiques

1.    AFP. (2019, 1er juillet). Facebook to broaden effort to root out white nationalist content, France 24. Repéré à https:// www.france24.com/en/20190701-facebook-broaden-effort-root-out-white-nationalist-content

2.    Awan, I. (2016). Islamophobia on Social Media: A Qualitative Analysis of the Facebook’s Walls of Hate, International Journal of Cyber Criminology, 10(1), 1-20.

3.    Chao, E.-C. (2015). The-Truth-About-Islam.Com: Ordinary Theories of Racism and Cyber Islamophobia. Critical Sociology, 41(1), 57-75.

4.    Baron Cohen, S. (2019, 22 novembre). Read Sacha Baron Cohen’s scathing attack on Facebook in full: ‘greatest propaganda machine in history’, The Guardian. Repéré à https://www.theguardian.com/technology/2019/nov/22/sacha-baron-cohen-facebook-propaganda

5.    Carrie Wong, J. (2019, 21 novembre). White nationalists are openly operating on Facebook. The company won’t act. Repéré à https://www.theguardian.com/technology/2019/nov/21/facebook-white-nationalists-ban-vdare-red-ice

6.    Daniels, J. (2009). Cyber Racism: White Supremacy Online and the New Attack on Civil Rights. Lanham: Rowman & Littlefield Publishers.

7.    Engesser, S., Ernst, N., Esser, F., Büchel, F. (2016). Populism and social media : how politicians spread a fragmented ideology. Information, Communication & Society, 20(8), 1109-1126.

8.    Ernst, N., Engesser, S., Büchel, F., Blassnig, S. et Esser, F. (2017). Extreme parties and populism : an analysis of Facebook and Twitter across six countries. Information, Communiation & Society, 20(9), 1347-1364.

9.    European Commission (2019, 4 février). Countering illegal hate speech online – EU Code of Conduct ensures swift response. Repéré à https://ec.europa.eu/commission/presscorner/detail/en/IP_19_805

10.    Farkas, J., Schou, J. et Neumayer, C. (2018). Platformed antagonism : racist discourses on fake Muslim Facebook pages, Critical Discourse Studies, 15(5), 463-480.

11.    Faulkner, N. et Bliuc, A-M. (2016). “It’s okay to be racist”: moral disengagement in online discussions of racist incidents in Australia. Ethnic and Racial Studies, 39(14), 2545-2563.

12.    Forcier, M. (2019). Patrouille des frontières nationales et représentations racialisées: Analyse de commentaires en ligne sur les réfugiés syriens au Québec. Refuge: Canada’s Journal on Refugees, 35(1), 43-60.

13.    Gerbaudo, P. (2018). Social media and populism: an elective affinity? Media, Culture & Society, 40(5), 745-753.

14.    Greene, V. (2019). “Deplorable” Satire. Alt-Right Memes, White Genocide Tweets, and Redpiling Normies, Studies in American Humor, 5(1).

15.    Hameleers, M. et Schmuck, D. (2017). It’s us against them: a comparative experiment on the effects of populist messages communicated via social media. Information, Communication & Society, 20(9), 1425-1444.

16.    Hughey, M. W. et Daniels, J. (2013). Racist comments at online news sites: a methodological dillemma for discourse analysis. Media, Culture & Society, 35(3), 332- 347.

17.    Hunt, A. et Gentzkow, M. (2017). Social Media and Fake News in the 2016 Election, Journal of Economic Perspectives, 31(2), 211-236.

18.    Kaiser, J. et Rauchfleisch, A. (2018). Unite the Right? How Youtube’s Recommendation Algorithm Connects The U.S. Far-Right, Medium, Data & Society. Repéré à https://medium.com/@MediaManipulation/unite-the-right-how-youtubes-recommendation-algorithm-connects-the-u-s-far-right-9f1387ccfabd

19.    KhosraviNik, M. (2018). Social Media Techno-Discursive Design, Affective Communication and Contemporary Politics. Fundan Journal of the Humanities and Social Sciences, 11(4), 427-442.

20.    Lewis, R. (2018). Alternative Influence : Broadcasting the Reactionary Right on Youtube, Data & Society, Repéré à https://datasociety.net/wp-content/uploads/2018/09/DS_Alternative_Influence.pdf

21.    Loke, J. (2012). Public Expressions of Private Sentiments:Unveiling the Pulse of Racial Tolerance through Online News Readers’ Comments. Howard Journal of Communications, 23(3), 235-252.

22.    Lytvynenko, J., Silverman, C. et Boutilier, A. (2019, 30 mai). White Nationalist Groups Banned By Facebook Are Still On The Platform, BuzzFeedNews. Repéré à https://www.buzzfeednews.com/article/janelytvynenko/facebook-white-nationalist-ban-evaded

23.    Marwick, A. et Lewis, R. (2017). Media Manipulation and Disinformation Online, Data & Society Research Institute. Repéré à https://datasociety.net/pubs/oh/DataAndSociety_MediaManipulationAndDisinformationOnline.pdf

24.    Matamoros-Fernández, A. (2017). Platformed racism: the mediation and circulation of an Australian race-based controversy on Twitter, Facebook and Youtube. Information, Communication & Society. doi: 10.1080/1369118X.2017.1293130

25.    Mozur, P. (2018, 15 octobre). A Genocide Incited on Facebook, With Posts From Myanmar’s Military, The New York Times. Repéré à https://www.nytimes.com/2018/10/15/technology/myanmar-facebook-genocide.html

26.    O’Callaghan, D., Greene, D., Conway, M., Carthy, J. et Cunningham, P. (2015). Down the (White) Rabbit Hole: The Extreme Right and Online Recommender Systems, Social Science Computer Reviews, 33(4), 459-478.

27.    Persily, N. (2017). The 2016 U.S. Election: Can Democracy Survive the Internet? Journal of Democracy, 28(2), 63-76. Satariano, A. (2019, 3 octobre). Facebook Can Be Forced to Delete Content Worldwide, E.U.’s Top Court Rules, The New York Times. Repéré à https://www.nytimes.com/2019/10/03/technology/facebook-europe.html

28.    Santana, A. D. (2015). Incivility Dominates Online Comments on Immigration. Newspaper Research Journal, 36(1), 92- 107.

29.    Sunstein, C. R. (2017). #republic: Divided Democracy in The Age of Social Media. Princeton: Princeton University Press.

30.    Vosoughi, S., Roy, D. et Aral, S. (2018). The spread of true and false news online. Science, 359 (6380), 1146-1151.

Relié à Politique et droit