open Menu secondaire

Incidence des plateformes lors des élections et solutions possibles de réglementationDocument de discussion 2 : L'incidence des plateformes de médias sociaux lors des élections

Au cours des dernières années, un débat public a pris naissance sur l'incidence de la nouvelle ère de l'information numérique et son utilisation (raisonnable ou abusive) par les particuliers, les acteurs politiques et ceux qui chercheraient à entraver les processus électoraux démocratiques dans le monde entier.

Les sections qui suivent se fondent sur les observations d'Élections Canada sur l'élection générale de 201954, de même que sur notre analyse de la loi, notre compréhension d'avis d'experts et l'expérience d'autres pays. Il y sera question de l'incidence de l'information numérique sur trois éléments fondamentaux de l'écosystème électoral : la transparence des communications, l'accès à de l'information fiable sur le processus électoral ainsi que la confiance dans le processus électoral. Des exemples de réglementation possible sont présentés dans le texte pour alimenter la discussion.

Transparence

La transparence du processus électoral favorise l'imputabilité des acteurs politiques de deux façons :

  1. La transparence permet aux organismes de réglementation et d'application de la loi de déterminer si une personne contrevient à la loi et de la tenir responsable en utilisant les mesures de conformité et d'application en vigueur.
  2. La transparence permet également aux citoyens de tenir les acteurs politiques responsables de leurs actes devant l'opinion publique et aux urnes55.

Transparence de la source des publicités

Les dispositions de la LEC sur l'énoncé d'autorisation et le registre des publicités visent à renseigner les électeurs sur les entités qui diffusent des publicités sur les plateformes de médias sociaux. Cependant, il faut noter que les obligations de transparence ne s'appliquent qu'à la publicité telle que définie dans la LEC.

Sur Internet, la distinction entre ce qui constitue de la « publicité » – et donc assujettie aux obligations relatives à l'énoncé d'autorisation et au registre des publicités – et ce qui n'en constitue pas est établie dans la note d'interprétation 2015-04 d'Élections Canada, Publicité électorale sur Internet56. En résumé, lorsque la diffusion d'un message sur Internet comporte – ou comporterait normalement – des frais de placement, il s'agit d'une publicité. Lorsqu'il n'y a pas de frais de placement (comme lorsqu'un utilisateur télécharge gratuitement une vidéo sur sa chaîne YouTube), il ne s'agit pas de publicité57.

Il convient toutefois de souligner que les obligations de transparence prévues par la LEC ne s'appliquent qu'à certains messages diffusés sur Internet, et ce, seulement pendant les périodes préélectorale ou électorale58.

Transparence du contenu des publicités

Outre la transparence relative à l'identification des annonceurs, la LEC prévoit certaines obligations quant à la transparence du contenu des publicités.

À l'époque où la plupart des messages publics étaient télédiffusés ou radiodiffusés à grande échelle, les publicités politiques étaient généralement vues par un plus vaste auditoire. De nos jours, les plateformes permettent aux acteurs politiques de microcibler leur publicité dans et à travers plusieurs plateformes, certains messages étant ainsi vus par de très petits auditoires. La nouvelle disposition de la LEC exigeant la création de registres des publicités a été adoptée pour faire face à cette nouvelle réalité.

Malgré les multiples registres des publicités créés pour l'élection générale de 2019, il était difficile pour le public d'effectuer des recherches dans l'ensemble des registres pour obtenir toutes les publicités menées par un acteur politique donné sur toutes les plateformes, ou de voir toutes les publicités ciblant un groupe particulier. En effet, les particuliers et les organismes de la société civile qui veulent examiner toutes les publicités diffusées par un annonceur doivent consulter les registres des publicités de chaque plateforme, y compris les plateformes dont ils ignoraient peut-être l'existence. En outre, il n'existe pas encore de moyen pratique pour le public de voir tous les contenus non publicitaires communiqués par les entités politiques sur diverses plateformes, soit : le contenu organique généré sans frais (p. ex. une publication Facebook sur la page d'un candidat) ou le contenu dont la production entraîne des frais, mais qui ne correspond pas à la définition d'une publicité selon la LEC (p. ex. une vidéo diffusée sur YouTube).

Des experts ont proposé des exigences plus strictes pour les registres des publicités, notamment l'obligation de mettre à disposition des données facilement interrogeables et lisibles par machine59. Certains experts proposent que les partis tiennent eux-mêmes des registres de leurs publicités diffusées sur toutes les plateformes, voire un registre de tous leurs messages60. D'autres plaident en faveur de la création d'une base de données centralisée pour l'ensemble des publicités politiques, quelle que soit leur source61.

Transparence des critères de ciblage publicitaire

L'obligation de la LEC relative aux registres des publicités n'impose pas aux plateformes de divulguer les critères de ciblage des annonceurs. La divulgation obligatoire de ces renseignements, que certains experts réclament62, permettrait aux citoyens de mieux comprendre comment les partis s'adressent à l'électorat et comment ils se présentent aux personnes ayant différents intérêts perçus.

Transparence des pratiques des plateformes pour la modération et l'organisation du contenu

Pour les utilisateurs, les pratiques des plateformes en matière de modération et d'organisation demeurent, pour la plupart, inconnues. Puisque le fil d'actualité de chaque utilisateur est personnalisé et qu'une grande partie du contenu organique ne peut être trouvé en effectuant une recherche sur la plateforme visée, il est difficile de connaître les tendances et les irrégularités du contenu vu par les utilisateurs, ou d'en mesurer les effets.

Les plateformes ferment régulièrement de faux comptes et suppriment le contenu qui ne respecte pas les politiques; dans certains cas, elles annoncent le démantèlement d'opérations d'information importantes63. Cependant, puisque les plateformes donnent peu de détails sur leurs décisions en matière de modération ou d'organisation de contenu, il est difficile de connaître la nature et les motifs de leurs décisions et de vérifier si l'application des règles et politiques des plateformes est équitable et uniforme.

Pour ce qui est de l'incidence des plateformes sur l'accès à de l'information fiable, bon nombre d'experts indiquent que les algorithmes de recommandation devraient faire l'objet d'un examen plus approfondi64. Une étude menée pendant l'élection générale de 2019 a révélé que le simple fait de cliquer sur une publication critiquant un candidat amenait l'algorithme d'une plateforme à générer des dizaines de publications dans la même veine, truffées de désinformation, de théories conspirationnistes et de mèmes incendiaires65. Des experts ont proposé diverses mesures pour accroître l'imputabilité des plateformes en ce qui concerne les algorithmes. Certaines mesures, comme le projet de loi Algorithmic Accountability Act, déposé au Congrès des États-Unis, propose une surveillance gouvernementale des algorithmes, qui pourrait se traduire par l'examen des données de formation (les données desquelles un algorithme « apprend »), des biais à la conception et des résultats discriminatoires66.

Difficulté à atteindre une transparence significative

Certains experts soulignent la difficulté d'atteindre une transparence suffisante pour générer des retombées démocratiques. Lors de l'élection présidentielle de 2016 aux États-Unis, par exemple, la campagne de Trump a diffusé quotidiennement entre 50 000 et 60 000 publicités en même temps67, rendant pratiquement impossible l'examen du public. Au Canada, des plafonds des dépenses68 réduisent le nombre de publicités, mais il semble qu'elles soient encore trop nombreuses pour permettre un examen suffisamment rigoureux. Une étude des publicités politiques et partisanes contenues dans le registre d'une seule plateforme – Facebook –, pendant l'élection générale 2019, a recensé 44 725 publicités69. Le principe voulant que la transparence conduit à l'imputabilité repose sur la capacité de la société civile d'examiner et d'évaluer d'un œil critique des dizaines voire des centaines de milliers de publicités.

Cette difficulté laisse entendre que la transparence ne peut, à elle seule, assurer l'atteinte des objectifs de la LEC à cet égard. Outre les défis liés au volume même du contenu, la qualité du contenu soulève aussi des difficultés. Il en sera question à la section suivante.

Questions à considérer

  • Quelles modifications, le cas échéant, devrait-on apporter aux exigences prévues actuellement par la LEC concernant le registre des publicités?
    • Le contenu non publicitaire, comme le contenu organique, devrait-il faire partie du registre?
    • Le registre devrait-il inclure d'autres types de métadonnées, outre l'identité de l'annonceur, comme le coût de la publicité ou ses critères de ciblage?
    • À qui devrait incomber la tenue du registre? Pourquoi?
  • Quelle réglementation, le cas échéant, devrait-on adopter relativement au ciblage des publicités politiques?
  • L'utilisation d'algorithmes dans la publicité numérique basée sur les données devrait-elle être réglementée? Si oui, comment?
Initiatives en culture civique et vérification des faits

Nombre de gouvernements, d'organismes de la société civile et de plateformes de médias sociaux ont lancé des programmes sur la littératie numérique, les connaissances civiques ou la compréhension des médias, dont certains comprenaient un volet sur la vérification des faits.

Les plateformes présentent ou adaptent régulièrement leurs initiatives et politiques en matière de vérification des faits en réaction à des événements particuliers comme les élections ou la pandémie de COVID-19. Au moment d'écrire ces lignes, le « programme de vérification des faits » de Facebook, qui consiste à collaborer avec des vérificateurs des faits indépendants, fait partie des nombreuses initiatives notables. Dans certains cas, ces initiatives réduisent la portée de contenus jugés inexacts ou permettent de présenter les contenus véridiques sur des sujets souvent traités incorrectement70. Twitter a envisagé d'accompagner d'un avertissement clair toute mésinformation nuisible diffusée par des personnalités publiques, tandis que Reddit compte sur des modérateurs bénévoles pour vérifier les contenus71.

De plus, de nombreux gouvernements financent la recherche et le journalisme civique pour faire face au « déclin substantiel du journalisme civique et responsable ... [et à l'affaiblissement du] modèle centenaire du journalisme de salle de rédaction72», attribués à l'essor de l'agrégation de contenu et des plateformes de publicité numérique. Le gouvernement canadien a investi dans des programmes de littératie numérique, de connaissances civiques et de compréhension des médias73.

Bien que les initiatives de littératie et de vérification des faits contribuent à contrer la menace de la désinformation et de la mésinformation en ligne, certains les jugent insuffisantes. Ils affirment que les personnes qui bénéficieraient de meilleures connaissances civiques sont les moins susceptibles d'y être exposées74. De même, bon nombre d'utilisateurs exposés à des renseignements inexacts ne verront probablement pas la version vérifiée de ces faits. De plus, de telles interventions isolées ne règlent pas les éléments structurels qui ont une incidence fondamentale sur l'information diffusée aux utilisateurs et leur capacité d'en évaluer la véracité75. Enfin, les efforts de vérification des faits déployés par les plateformes reposent sur le travail de bénévoles et de partenaires tiers, dont l'engagement à corriger l'information a parfois été remis en question. Par exemple, une plateforme a fait l'objet de critiques pour avoir accordé le statut de vérificateur des faits à un site accusé de diffuser des informations tendancieuses et inexactes76.

Accès à de l'information fiable sur le processus électoral

Pour bien participer au processus électoral, les électeurs doivent avoir accès à des renseignements fiables pour savoir où, quand et comment s'inscrire et voter ainsi que sur les choix politiques qui s'offrent à eux afin de prendre une décision éclairée avant de voter.

Information fiable sur le vote

Pour exercer leur droit démocratique de voter, encore faut-il que les électeurs aient accès à des renseignements fiables et exacts pour savoir où, quand et comment s'inscrire et voter. Une partie importante de la mission d'Élections Canada est de veiller à ce que les Canadiens puissent exercer leur droit démocratique de voter. Une des fonctions centrales de l'organisme est donc de communiquer correctement aux électeurs les renseignements exacts sur l'inscription et le vote.

Des acteurs malveillants voulant empêcher les électeurs de voter, peuvent diffuser de l'information erronée sur le processus électoral. Parfois, ce type d'information est également propagé par erreur et ne vise aucunement à empêcher les électeurs de voter.

De plus, en raison du volume d'informations, de la rapidité de leur diffusion et du ciblage des utilisateurs, il est impossible pour les observateurs externes de voir tout ce qui est publié dans les médias sociaux, contrairement aux médias traditionnels. C'est pourquoi des renseignements faux ou trompeurs sur la façon de voter peuvent se répandre comme une traînée de poudre dans les médias sociaux, à l'insu des entités qui cherchent à s'assurer que les électeurs peuvent exercer leur droit démocratique.

Pendant l'élection générale de 2019, Élections Canada a exercé une surveillance étroite de l'information inexacte sur le processus électoral. Nous avons relevé quelques cas qui semblaient avoir une faible portée. La majorité de l'information inexacte aurait été publiée par des Canadiens ayant commis une erreur, et certaines publications diffusées par des médias ou des candidats ont été corrigées ultérieurement par l'auteur.

Le jour de l'élection, Élections Canada a trouvé, sur quelques plateformes, diverses versions d'un message indiquant que certains partisans voteraient à une date ultérieure. Si ces messages se voulaient peut-être une plaisanterie, ils auraient pu empêcher des électeurs de voter, particulièrement ceux qui se heurtent déjà à des obstacles au vote. L'organisme a donc porté ces messages à l'attention des plateformes afin qu'elles les suppriment, au motif qu'ils enfreignaient leurs normes de communauté77.

Au cours des derniers mois, lors d'élections tenues ailleurs dans le monde, notamment aux États-Unis, plusieurs plateformes ont pris de nouveaux engagements relativement à la surveillance et à la suppression des renseignements inexacts sur les modalités d'inscription et de vote (où, quand et comment s'inscrire et voter)78. Ces efforts devraient continuer de porter leurs fruits si toutes les plateformes assurent une surveillance proactive de ce type de renseignements inexacts et qu'elles les suppriment.

Cependant, la tendance à utiliser des espaces privés dans les médias sociaux rend difficile la détection des renseignements préjudiciables qui sont diffusés en ligne. De même, l'abondance des langues parlées au Canada pose des difficultés pour la surveillance des tribunes publiques en ligne, si bien que des renseignements préjudiciables pourraient se répandre en ligne, à grande échelle, sans qu'ils soient détectés et sans que les faits soient rétablis.

Pendant l'élection générale de 2019 et par la suite, Élections Canada a observé que le discours au sujet du vote sur les plateformes de médias sociaux est souvent axé sur l'intégrité perçue du processus électoral en soi. Ce débat comprend des déclarations fausses ou trompeuses, selon lesquelles le processus électoral aurait été compromis ou manquerait d'intégrité. Les renseignements douteux sur l'intégrité du processus électoral peuvent miner la confiance du public dans le processus et ses résultats. Ce sujet sera approfondi plus loin à la section consacrée à la confiance.

Groupes et services de messagerie privés dans les médias sociaux

La protection de la vie privée et l'utilisation des plateformes de médias sociaux suscitant de plus en plus de préoccupations, on a observé un intérêt accru pour les messages et les groupes privés, comme les groupes WhatsApp ou Facebook, de même qu'une utilisation accrue des communications éphémères (de courte durée), comme les « stories » d'Instagram et Snapchat79. Les Canadiens échangent de plus en plus d'information au sein de groupes privés dans les médias sociaux et au moyen de services de messagerie privés80.

Les critiques soutiennent que ce nouvel intérêt pour les communications et les espaces privés pose des difficultés aux plateformes de médias sociaux. En effet, dans l'incapacité de surveiller le contenu diffusé dans ces espaces, les plateformes ne peuvent savoir si leurs règles interdisant les commentaires haineux, le harcèlement et d'autres comportements nuisibles sont respectées81. Aucun observateur externe ne peut non plus accéder à ces espaces privés pour savoir si les politiques sont appliquées.

Outre les activités de surveillance, les plateformes pourraient, et elles le font, effectuer certaines interventions visant la messagerie privée. Par exemple, en avril 2020, WhatsApp a établi de nouvelles limites pour le transfert de publications virales, afin de réduire la propagation de renseignements possiblement faux ou trompeurs dans les messages privés82. Cette mesure a été prise à la suite de fausses informations diffusées sur la plateforme concernant le nouveau coronavirus. WhatsApp a commencé à limiter les transferts de messages en 2018, à la suite de rumeurs devenues virales sur la plateforme au sujet d'actes de violence collective en Inde83.

Information fiable sur les choix qui s'offrent aux électeurs

En général, il importe pour les électeurs de connaître l'éventail des choix politiques qui s'offrent à eux et d'obtenir de l'information fiable pour faire un choix éclairé. À cette fin, les acteurs politiques doivent avoir la possibilité de faire connaître leur programme et de rivaliser avec leurs adversaires selon des règles du jeu équitables.

La LEC prévoit diverses dispositions qui favorisent des règles du jeu équitables. Certaines de ces dispositions visent à réduire les inégalités qui peuvent découler de l'utilisation de l'argent : la fixation de plafonds des dépenses et le remboursement partiel de certaines dépenses électorales des partis et des candidats, par exemple, réduisent la possibilité que des acteurs politiques aux coffres plus garnis dominent le discours électoral.

La LEC comprend également des mesures pour veiller à ce qu'une variété de candidats et de partis puisse s'adresser aux électeurs. Par exemple, elle permet à tous les candidats et les partis d'obtenir une liste des électeurs pour faire campagne84 ainsi que l'accès aux immeubles à logements multiples et aux lieux publics pour faire du porte-à-porte85. Elle accorde également du temps de diffusion gratuit et du temps de diffusion payant à des taux bas et équitables pour que les partis politiques enregistrés aient la possibilité de faire connaître leur programme aux Canadiens86. Ces dispositions aident les électeurs à bien connaître et évaluer les choix qui s'offrent à eux pour prendre une décision éclairée.

Les acteurs malveillants peuvent utiliser les plateformes de médias sociaux pour miner la capacité des électeurs à faire un choix éclairé, par la diffusion de renseignements faux ou trompeurs sur des adversaires ou par le recours à la tromperie pour empêcher les électeurs de voter ou détourner leur attention.

Des acteurs malveillants peuvent donner une fausse image de leurs adversaires et dénaturer leurs positions politiques pour dissuader les électeurs de les appuyer. Pendant l'élection générale de 2019, Élections Canada n'a pas surveillé ce type de renseignements inexacts, car évaluer l'exactitude des déclarations politiques n'est pas un rôle qui lui revient. (Nous constatons que les entités politiques tendent à surveiller les campagnes de leurs adversaires, se tenant mutuellement responsables de faire preuve d'honnêteté et d'intégrité.)

Bien que la LEC interdise strictement certains types de fausses déclarations sur les candidats et les personnes associées aux partis – de même que l'influence des électeurs par quelque prétexte ou ruse –, il peut être difficile de réglementer la façon dont les acteurs politiques décrivent leurs adversaires, car nous risquons ainsi de limiter une forme légitime d'expression politique. Cela étant dit, le volume des fausses déclarations et la vitesse à laquelle elles peuvent se répandre sur les médias sociaux représentent une difficulté que les médias traditionnels ne posaient pas avant87.

Dans les cas extrêmes, les acteurs malveillants utilisent de fausses identités, des agents logiciels ou des trolls rémunérés pour exploiter le contenu organique et les algorithmes publicitaires des plateformes, ce qui permet d'artificiellement inhiber certaines opinions et d'amplifier d'autres à des fins stratégiques88. Les organismes de renseignement, les chercheurs et les plateformes elles-mêmes continuent de déceler des activités d'ingérence numérique coordonnées lors des élections, par un ensemble d'acteurs, dont des États89. Bien que les plateformes aient ajouté des exigences d'authentification pour les utilisateurs et les annonceurs politiques, les acteurs malveillants ont trouvé des moyens de les esquiver en empruntant un compte ou en se cachant derrière des identités fabriquées ou volées90. Les plateformes continuent de supprimer des milliards de faux comptes chaque année; sur les plateformes les plus populaires, le pourcentage de faux utilisateurs mensuels est estimé entre 5 et 20 %91.

Le harcèlement des acteurs politiques et des électeurs sur les médias sociaux peut également avoir une incidence sur la participation des candidats et des électeurs au processus électoral et sur la capacité des électeurs de connaître une diversité de candidats. Selon des chercheurs, le harcèlement en réseau, dont on a été témoin à l'élection générale de 2019, peut empêcher certains acteurs politiques (en particulier les femmes et les personnes de couleur) d'avoir une occasion équitable d'informer les électeurs de leurs programmes politiques. En effet, certains voient leurs messages passer inaperçus, se font écarter de la course ou retirent leur candidature92 en raison de menaces pour leur sécurité. Pour donner un exemple des messages vitrioliques que reçoivent les femmes politiques, une députée de l'Assemblée nationale du Québec a lu aux parlementaires certains messages qu'elle avait reçus; parmi ces messages, on trouvait « suicide-toi » et « si j'étais ton fils ou ta fille, j'aurais honte de ma mère »93.

À l'élection présidentielle de 2016 aux États-Unis, des acteurs malveillants se faisant passer pour des Afro-Américains ont travaillé activement pour diminuer la participation électorale de cette communauté en insinuant que le vote n'avait pas d'importance et qu'aucun candidat n'avait leur intérêt à cœur94. Cet exemple montre un effort parrainé par un État étranger pour restreindre et influencer les choix des électeurs.

Les acteurs malveillants peuvent aussi activement « inonder » les plateformes de contenus douteux et contradictoires : « compte tenu de notre attention limitée, inonder les médias sociaux de contenus de mauvaise qualité est un moyen d'empêcher le libre échange d'idées95 ». Ainsi, cette stratégie consiste à détourner l'attention des électeurs qui utilisent les médias sociaux, afin qu'ils n'aient pas accès au contenu pertinent qui leur permettrait de prendre des décisions éclairées96.

La recherche montre que l'architecture des plateformes peut entraver l'accès équitable à divers points de vue en renforçant la polarisation et en influençant l'information que les électeurs consomment. Les choix faits par les utilisateurs et les algorithmes créent une spirale qui alimente l'unidimensionnalité et se manifeste dans des réseaux sociaux en ligne divisés par des frontières idéologiques97. Ainsi, les points de vue peuvent ne rencontrer aucune opposition et se propager davantage parmi les utilisateurs au sein de « bulles de filtre » – dans lesquelles les « algorithmes accentuent par inadvertance la ségrégation idéologique en recommandant automatiquement du contenu avec lequel une personne est susceptible d'être déjà en accord98 » – et de « chambres d'écho », des environnements en ligne où les membres sont essentiellement exposés à des opinions qui confirment la leur99.

Questions à considérer

  • Devrait-il y avoir une réglementation obligeant toutes les plateformes de médias numériques et sociaux à supprimer les contenus inexacts ou trompeurs sur le vote (à savoir où, quand et comment voter)? Dans l'affirmative, quel type de réglementation?
  • Comment Élections Canada devrait-il collaborer avec les autres intervenants concernés (plateformes, entités réglementées, groupes de la société civile, chercheurs)?
  • Les plateformes de médias numériques et sociaux devraient-elles être tenues par la loi de rendre compte publiquement de tous les comptes ou contenus qu'elles ont supprimés? Dans l'affirmative, précisément quels renseignements devraient-elles être tenues de rendre publics?
  • Les plateformes de médias sociaux devraient-elles prendre d'autres mesures pour limiter la diffusion, dans les espaces privés, de contenus inexacts ou trompeurs potentiellement nuisibles ?
  • Quels sont les risques associés à l'utilisation des plateformes de médias numériques et sociaux par les organismes de gestion électorale comme Élections Canada pour communiquer avec les électeurs? Quelles mesures d'atténuation pourraient être prises pour gérer ces risques?

La confiance dans le processus électoral

Le dernier élément de l'écosystème électoral touché par les plateformes de médias numériques et sociaux est la confiance. Sans confiance dans le processus électoral, les électeurs sont moins susceptibles de voter, de croire en l'exactitude des résultats ou de considérer les élus comme légitimes100. L'un des principaux objectifs de la LEC est de s'assurer que les Canadiens ont confiance dans les résultats des élections et dans le processus qui a conduit à ces résultats. Certes, tous les Canadiens ne réussiront pas à élire les représentants ou le gouvernement qu'ils souhaitent, mais ils doivent néanmoins avoir confiance dans le processus par lequel ces représentants et le gouvernement sont élus.

La LEC vise à favoriser ce climat de confiance en créant un processus électoral ouvert et public, qui se fonde sur des règles claires et appliquées de façon uniforme. L'un des principaux rôles du directeur général des élections, qui découle de la création de ce poste il y a un siècle, est d'uniformiser l'application des règles électorales fédérales dans tout le pays, ce qui contribue à renforcer la confiance des Canadiens dans le processus électoral.

L'élection générale de 2019 fut le scrutin le plus « numérique » de l'histoire électorale canadienne, les plateformes de médias sociaux ayant offert à des millions de Canadiens un moyen d'exprimer leur soutien ou leur opposition aux candidats ou aux partis101. Les contenus inexacts ou trompeurs qui se trouvent en ligne peuvent diminuer la confiance des citoyens dans le processus électoral.

Le niveau de confiance des Canadiens à l'égard d'Élections Canada et du processus électoral est généralement élevé102. Cependant, des études récentes montrent que la confiance des Canadiens dans les gouvernements, les médias, les dirigeants, les entreprises et même les organismes à but non lucratif est en baisse103. Pendant et depuis l'élection générale de 2019, Élections Canada a observé des signes de méfiance à l'égard du processus électoral et de ses résultats. Comme l'érosion de la confiance se fait progressivement, ces premières indications sont préoccupantes.

Bien que l'examen et les critiques sur la conduite des élections par Élections Canada soient légitimes et bienvenus, il faut distinguer les expressions de méfiance non fondées des commentaires constructifs. L'organisme bénéficie des commentaires des citoyens qui s'expriment à propos de ses services dans les médias sociaux. Il ne considère pas que ces commentaires puissent avoir un effet négatif sur la confiance du public dans le processus électoral ou ses résultats.

Cela dit, les expressions de méfiance non fondées qui contiennent des renseignements faux ou trompeurs ou se basent sur des hypothèses erronées, peuvent miner la confiance dans le processus électoral. Élections Canada a observé trois catégories de tels messages sur les médias sociaux :

  • les messages qui déforment ou exagèrent délibérément des incidents réels mais isolés;
  • les messages contenant de pures inventions;
  • les messages apparemment fondés sur une méconnaissance du processus électoral.

Dans la deuxième catégorie, citons un exemple frappant d'histoire inventée de toutes pièces, publiée le premier jour du vote par anticipation, dans laquelle un utilisateur prétendait avoir été témoin de la falsification de bulletins de vote (maculage des marques de crayon) et de « chaos » dans un lieu de scrutin de la région de Toronto. Dans ce cas, Élections Canada a immédiatement examiné l'affaire et a conclu que ces allégations n'étaient pas fondées. Dans les jours qui ont suivi, l'organisme a vu la publication initiale et ses nombreuses variantes se répandre sur plusieurs plateformes. Le personnel d'Élections Canada a appris de manière anecdotique que cette fausse nouvelle était également diffusée en ligne sur une application de messagerie privée et en personne dans des lieux de rassemblement communautaires. Plus tard, une journaliste a couvert cette fausse allégation104 et l'a démystifiée, mais a démontré néanmoins la vaste portée des médias sociaux. Cet incident a démontré la rapidité et la facilité avec lesquelles de fausses nouvelles peuvent se répandre sur plusieurs plateformes et divers médias.

Dans la troisième catégorie, l'organisme a détecté des messages prétendant qu'Élections Canada ne devait pas avoir compté les bulletins de vote par anticipation parce qu'il n'avait pas annoncé les résultats du scrutin après la fermeture des bureaux de vote; de toute évidence, certains utilisateurs ne savaient pas que le dépouillement des bulletins de vote par anticipation et la communication des résultats ont lieu le soir de l'élection.

Ces exemples exprimaient une méfiance fondée sur des préoccupations précises des utilisateurs. Élections Canada a également relevé des expressions de méfiance plus vagues; dans ces messages les utilisateurs lançaient des accusations d'ordre général, selon lesquelles l'organisme serait « corrompu » ou le processus électoral, « truqué ».

Bien qu'Élections Canada ait surveillé de près ce genre d'expressions de méfiance comportant des renseignements faux ou trompeurs sur l'intégrité du processus, l'organisme n'a pas signalé ces messages aux plateformes de médias sociaux, car ils n'enfreignaient pas alors les politiques des plateformes.

Ces messages dans les médias sociaux – non fondés sur des faits – sont préoccupants, car ils peuvent miner la confiance dans le processus électoral. Certains experts, qui étudient l'érosion générale de la confiance dans les institutions au sein de nombreuses démocraties occidentales, avancent que l'utilisation des plateformes de médias sociaux contribue à cette tendance en réduisant l'accès des citoyens à de l'information fiable, tout en augmentant leur accès à des contenus incendiaires105.

Questions à considérer

  • Quel autre rôle, le cas échéant, Élections Canada devrait-il jouer pour renforcer la confiance dans les élections et la démocratie? Quel rôle les autres acteurs devraient-ils jouer à cet égard?

Notes de bas de page

Note 54 Nous nous fondons, entre autres, sur la surveillance effectuée par le personnel d'Élections Canada avant, pendant et après l'élection de 2019. Notre équipe a effectué des recherches par mots clés sur des plateformes ouvertes afin de trouver des renseignements inexacts sur le processus électoral, notamment en ce qui concerne les modalités d'inscription et de vote (où, quand et comment s'inscrire et voter), les commentaires sur nos services, l'usage abusif de l'identité d'Élections Canada et les incidents signalés, comme des pannes de courant, qui pourraient entraver la conduite de l'élection. Notre priorité était de trouver des renseignements qui pourraient avoir une incidence sur l'accessibilité du vote, afin de pouvoir remédier rapidement à la situation par des mesures opérationnelles ou des stratégies de communication. Nous ne cherchions pas des infractions à la LEC.

Note 55 Philippe C. Schmitter et Terry Lynn Karl, « What Democracy Is... and Is Not », Journal of Democracy, été 1991, p. 8, https://www.ned.org/docs/Philippe-C-Schmitter-and-Terry-Lynn-Karl-What-Democracy-is-and-Is-Not.pdf (en anglais seulement).

Note 56 Élections Canada, « Publicité électorale sur Internet », Avis écrits, lignes directrices et notes d'interprétation : 2015-04, juillet, 2015. https://elections.ca/content.aspx?section=res&dir=gui%2Fapp%2F2015-04&document=index&lang=f

Note 57 Ibid.

Note 58 Cette question est traitée plus en détail dans le document de discussion complémentaire d'Élections Canada : Les communications politiques à l'ère du numérique, Document de discussion 1 : La règlementation des communications politiques en vertu de la Loi électorale du Canada, Élections Canada, mai 2020.

Note 59 Mozilla, « Facebook and Google: This Is What an Effective Ad Archive API Looks Like », communiqué de presse, 27 mars 2019, https://blog.mozilla.org/blog/2019/03/27/facebook-and-google-this-is-what-an-effective-ad-archive-api-looks-like (en anglais seulement).

Note 60 Ministère de l'Intérieur des Pays-Bas, « Response to the Motion for Complete Transparency in the Buyers of Political Advertisements on Facebook », gouvernement des Pays-Bas, 2019, cité dans Paddy Leerssen, Jeff Ausloos, Brahim Zarouali, Natali Helberger et Claes H. de Vreese, « Platform Ad Archives: Promises and Pitfalls », Internet Policy Review, vol. 8, no 4, 2019 (en anglais seulement). Élections Canada tient un registre des produits de communication qu'il publie, y compris dans les médias sociaux. Pendant la période électorale, le registre a été consulté 163 000 fois. Voir : https://www.elections.ca/content.aspx?section=res&dir=pca&document=index&lang=f.

Note 61 Solon Barocas, « The Price of Precision: Voter Microtargeting and Its Potential Harms to the Democratic Process », PLEAD 2012: Proceedings of the First Edition Workshop on Politics, Elections and Data, novembre 2012, p. 31-36, www.researchgate.net/publication/266653119_The_price_of_precision_Voter_microtargeting_and_its_potential_harms_to_the_democratic_process (en anglais seulement).

Note 62 Mozilla, « Facebook and Google: This Is What an Effective Ad Archive API Looks Like », communiqué de presse, 27 mars 2019, https://blog.mozilla.org/blog/2019/03/27/facebook-and-google-this-is-what-an-effective-ad-archive-api-looks-like (en anglais seulement).

Note 63 Voir, par exemple, Nathaniel Gleicher, « Removing Coordinated Inauthentic Behavior from Georgia, Vietnam and the US », Facebook, 20 décembre 2019, https://about.fb.com/news/2019/12/removing-coordinated-inauthentic-behavior-from-georgia-vietnam-and-the-us/ et Makena Kelly, « Facebook and Twitter shutter pro-Trump network reaching 55 million accounts », The Verge, 20 décembre 2019, https://www.theverge.com/2019/12/20/21031823/facebook-twitter-trump-network-epoch-times-inauthentic-behavior (en anglais seulement).

Note 64 Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, Démocratie menacée : risques et solutions à l'ère de la désinformation et du monopole des donnéesRapport du Comité permanent de l'accès à l'information, de la protection des renseignements personnels et de l'éthique, décembre 2018, 42e législature, 1re session, p. 39-40, https://www.noscommunes.ca/DocumentViewer/fr/42-1/ETHI/rapport-17.

Note 65 Kanishk Karan et John Gray, « Trudeaus and Trudeaunts :  Memes Have an Impact during Canadian Elections », DFRLab, 19 novembre 2019, https://medium.com/dfrlab/trudeaus-and-trudeaunts-memes-have-an-impact-during-canadian-elections-4c842574dedc/ (en anglais seulement).

Note 66 Taylor Owen, « The Case for Platform Governance », Centre for International Governance Innovation Papers Series, article no 231, 4 novembre 2019, p. 13, www.cigionline.org/publications/case-platform-governance (en anglais seulement). Fait intéressant, le gouvernement du Canada a publié une Directive sur la prise de décision automatisée, qui s'applique à l'utilisation de l'intelligence artificielle dans la prise de décisions sur la prestation de services par les entités du gouvernement du Canada. La Directive vise à ce que les systèmes décisionnels automatisés soient utilisés par le gouvernement « d'une manière qui [...] donne lieu à une prise de décisions plus efficace, exacte et conforme, qui peut être interprétée en vertu du droit canadien ». La Directive ne s'applique pas aux agents du Parlement, comme Élections Canada. Gouvernement du Canada, Directive sur la prise de décision automatisée, Secrétariat du Conseil du Trésor, 2019, https://www.tbs-sct.gc.ca/pol/doc-fra.aspx?id=32592.

Note 67 Jacquelyn Burkell et Priscilla M. Regan, « Voter Preferences, Voter Manipulation, Voter Analytics: Policy Options for Less Surveillance and More Autonomy », Internet Policy Review, vol. 8, no 4, 2019, p. 7 (en anglais seulement).

Note 68 LEC, infra., art. ss 350(1)b), 429.1 et 430(1). Des registres des publicités ont été créés par Bell Media, CBC–Radio-Canada, Facebook, The Globe and Mail, Postmedia et Rogers.

Note 69 Damian McCoy, « Publicités sur Facebook pendant l'élection fédérale canadienne », étude présentée au Défi de recherche sur l'écosystème numérique, Ottawa (Ontario), 21 février 2020. Pour plus de renseignements, voir : www.digitalecosystem.ca/report.

Note 70 Facebook, « Hard Questions: What's Facebook's Strategy for Stopping False News? », 23 mai 2018, https://about.fb.com/news/2018/05/hard-questions-false-news (en anglais seulement).

Note 71 Shirin Ghaffary, « Twitter Is Considering Warning Users When Politicians Post Misleading Tweets », Vox, 20 février 2020, www.vox.com/recode/2020/2/20/21146039/twitter-misleading-tweets-label-misinformation-social-media-2020-bernie-sanders (en anglais seulement); Lulu Garcia Navarro, « Managing Misinformation on Reddit », NPR, 8 décembre 2019, https://www.npr.org/2019/12/08/786039738/managing-misinformation-on-reddit/ (en anglais seulement).

Note 72 Nushin Rashidian et al., « Friend and Foe: The Platform Press at the Heart of Journalism », Tow Center for Digital Journalism, 2018, et Robert W. McChesney et Victor Picard, eds., Will the Last Reporter Please Turn Out the Lights: The Collapse of Journalism and What Can Be Done to Fix It, New York, NY: The New Press, 2011, cité dans Taylor Owen, « The Case for Platform Governance », CIGI Papers no 231 (novembre 2019), 11. https://www.cigionline.org/sites/default/files/documents/Paper%20no.231web.pdf (en anglais seulement).

Note 73 Rachel Aiello, « Feds unveil plan to tackle fake news, interference in 2019 election », CTV News, 27 février 2019, https://www.ctvnews.ca/politics/feds-unveil-plan-to-tackle-fake-news-interference-in-2019-election-1.4274273/; Gouvernement du Canada, « Initiative de citoyenneté numérique », 30 août 2019, https://www.canada.ca/fr/patrimoine-canadien/services/desinformation-en-ligne.html.

Note 74 Samarth Bansar, « The Patchwork of Policy Working to Fend off Misinformation », Centre for International Governance Innovation, 4 octobre 2019, www.cigionline.org/articles/patchwork-policy-working-fend-misinformation (en anglais seulement). La littératie des médias est étroitement liée au revenu et à l'éducation, ce qui signifie que les personnes qui bénéficieraient de meilleures connaissances des médias sont celles qui sont les moins susceptibles de les acquérir. Voir Centre Samara pour la démocratie, « Investing in Canadians' Civic Literacy: An Answer to Fake News and Disinformation », 30 janvier 2019, www.samaracanada.com/docs/default-source/reports/investing-in-canadians-civic-literacy-by-the-samara-centre-for-democracy.pdf?sfvrsn=66f2072f_4 (en anglais seulement).

Note 75 Centre Samara pour la démocratie, « Investing in Canadians' Civic Literacy: An Answer to Fake News and Disinformation », 30 janvier 2019, p. 3 et 8, www.samaracanada.com/docs/default-source/reports/investing-in-canadians-civic-literacy-by-the-samara-centre-for-democracy.pdf?sfvrsn=66f2072f_4 (en anglais seulement).

Note 76 Judd Legum, « The Daily Caller Uses Status as Facebook Fact-checker to Boost Trump », Popular Information, 3 mars 2020, https://popular.info/p/the-daily-caller-uses-status-as-facebook (en anglais seulement).

Note 77 À quelques reprises, Élections Canada a soumis des publications inexactes à l'examen des plateformes de médias sociaux. D'août au 31 octobre, l'organisme a signalé aux plateformes de médias sociaux un total de 28 cas d'usurpation d'identité ou de diffusion d'information inexacte. Les administrateurs des plateformes ont examiné ces publications en fonction de leurs conditions de service, et dans certains cas, ont supprimé des publications ou des comptes.

Note 78 Beaucoup d'annonces ont été faites en prévision et à la suite d'activités touchant les élections, notamment l'élection présidentielle américaine de 2020. Voir, par exemple, l'annonce faite par Facebook, en octobre 2019, sur les mesures prises par la plateforme pour protéger l'intégrité de l'élection de 2020 aux États-Unis : https://about.fb.com/news/2019/10/update-on-election-integrity-efforts/; pour Twitter, voir : https://about.twitter.com/en_us/advocacy/elections-integrity.html#us-elections/ (en anglais seulement).

Note 79 Sara Fischer, « Privacy Concerns Push People to Private, Group-based Platforms », Axios, 12 février 2019, https://www.axios.com/privacy-concerns-push-people-to-private-group-platforms-f8561226-4cb4-4def-b11a-031edf590dba.html/ (en anglais seulement).

Note 80 J. Clement, « Social Networking in Canada – Statistics & Facts », Statista.com, 18 septembre 2019, https://www.statista.com/topics/2729/social-networking-in-canada/ et https://www.statista.com/forecasts/998512/social-media-activities-in-canada (en anglais seulement). Faisant l'objet d'un examen accru à la suite de l'utilisation abusive de ses données par Cambridge Analytica, Facebook a commencé à vanter les mérites de ses groupes « privés » comme étant l'avenir du réseautage social sur la plateforme; cependant, ces groupes peuvent constituer des foyers de désinformation. Voir Elizabeth Dwoskin, « Facebook says private groups are its future. Some are hubs for misinformation and hate », The Washington Post, 5 juillet 2019. https://www.washingtonpost.com/technology/2019/07/05/facebook-says-private-groups-are-its-future-some-are-hubs-misinformation-hate/; Kurt Wagner, « This Could Be the Beginning of the End for Facebook's Social Network », Vox.com, 7 mars 2019, https://www.vox.com/2019/3/7/18254298/facebook-private-messaging-zuckerberg-questions-social-network-dying/; Nic Newman, Richard Fletcher, Antonis Kalogeropoulos et Rasmus Kleis Nielsen, « Reuters Institute Digital News Report 2019 », Reuters Institute for the Study of Journalism, 2019, p. 18, https://reutersinstitute.politics.ox.ac.uk/sites/default/files/inline-files/DNR_2019_FINAL.pdf (en anglais seulement).

Note 81 Elizabeth Dwoskin, « Facebook says private groups are its future. Some are hubs for misinformation and hate », The Washington Post, 5 juillet 2019, https://www.washingtonpost.com/technology/2019/07/05/facebook-says-private-groups-are-its-future-some-are-hubs-misinformation-hate/ (en anglais seulement).

Note 82 Casey Newton, « WhatsApp puts new limits on the forwarding of viral messages », The Verge, 7 avril 2020, https://www.theverge.com/2020/4/7/21211371/whatsapp-message-forwarding-limits-misinformation-coronavirus-india/ (en anglais seulement).

Note 83 Ibid.

Note 84 LEC, infra, art. 93.

Note 85 LEC, infra, art. 81 et 81.1.

Note 86 LEC, infra, art. 335 à 348.

Note 87 Hunt Allcott et Matthew Gentzkow, « Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives, vol. 31 no 2, 2017, p. 211-235.

Note 88 Centre de la sécurité des télécommunications, « Cybermenaces contre le processus démocratique du Canada », 2017, https://cyber.gc.ca/sites/default/files/publications/cse-cyber-threat-assessment-f.pdf; Centre de la sécurité des télécommunications, « Le point sur les cybermenaces contre le processus démocratique du Canada en 2019 », 2019, https://cyber.gc.ca/sites/default/files/publications/tdp-2019-report-f_0.pdf.

Note 89 Ibid.

Note 90 Michael Schwirtz et Sheera Frenkel, « In Ukraine, Russia tests a new Facebook tactic in election tampering », The New York Times, 29 mars 2019, https://www.nytimes.com/2019/03/29/world/europe/ukraine-russia-election-tampering-propaganda.html/ (en anglais seulement).

Note 91 En novembre 2019, Facebook a annoncé avoir supprimé 5,4 milliards de faux comptes en 2019, une hausse par rapport aux 3,3 milliards de faux comptes supprimés en 2018. À la mi-2019, Facebook estimait que 5 % de ses utilisateurs mensuels actifs étaient de faux comptes; cependant, des observateurs externes estiment que cette proportion serait beaucoup plus élevée et pourrait atteindre 20 %. On estime que 8 ou 9 % des comptes Instagram sont de faux comptes. De mai à juillet 2018, Twitter a fermé environ 70 millions de comptes faux ou suspects. À l'époque, ceux-ci représentaient environ 15 % du nombre total d'utilisateurs de Twitter. Matt Davis, « Billions of Fake Accounts: Who's Messaging You on Facebook? », Big Think, 20 novembre 2019, https://bigthink.com/politics-current-affairs/facebook-banned-accounts (en anglais seulement); Reed Albergotti et Sarah Kuranda, « Instagram's Growing Bot Problem », The Information, 18 juillet 2018, www.theinformation.com/articles/instagrams-growing-bot-problem (en anglais seulement); Instascreener, juin 2019, « Quantifying Fake Accounts and Inauthentic Engagements on Instagram », https://instascreener.com/blog/quantifying-fake-accounts-inauthentic-engagements (en anglais seulement); BBC News, « Twitter 'shuts down millions of fake accounts' », 9 juillet 2018, www.bbc.com/news/technology-44682354 (en anglais seulement).

Note 92 Par exemple, Kim Weaver, une démocrate de l'Iowa, s'est retirée d'une course à la Chambre des représentants en 2017, invoquant des menaces pour sa sécurité parmi ses principaux motifs. Voir Molly Longman et Jason Noble, « Kim Weaver withdraws her candidacy in Iowa's 4th District race for Congress », Des Moines Register, 3 juin 2017, www.desmoinesregister.com/story/news/2017/06/03/kim-weaver-withdraws-her-candidacy-iowas-4th-district-race-congress/368389001 (en anglais seulement).

Note 93 Janie Gosselin, « Violence en ligne contre les femmes : des messages crus lus à Québec », La Presse, 28 novembre 2019, www.lapresse.ca/actualites/politique/201911/28/01-5251538-violence-en-ligne-contre-les-femmes-des-messages-crus-lus-a-quebec.php.

Note 94 Scott Shane et Sheera Frenkel, « Russian 2016 influence operation targeted African-Americans on social media », The New York Times, 17 décembre 2018; Paul M. Barrett, « Tackling Domestic Disinformation: What the Social Media Companies Need to Do », NYU Stern Center for Business and Human Rights, 22 février 2019, p. 5, https://issuu.com/nyusterncenterforbusinessandhumanri/docs/nyu_domestic_disinformation_digital/ (en anglais seulement).

Note 95 Paul M. Barrett, « Tackling Domestic Disinformation: What the Social Media Companies Need to Do », NYU Stern Center for Business and Human Rights, 22 février 2019, https://issuu.com/nyusterncenterforbusinessandhumanri/docs/nyu_domestic_disinformation_digital/ (en anglais seulement).

Note 96 Ibid.

Note 97 Balázs Bodó, Natalie Helberger, Sarah Eskens et Judith Möller, « Interested in Diversity: The Role of User Attitudes, Algorithmic Feedback Loops, and Policy in News Personalization », Digital Journalism, vol. 7, no 2, 2019, p. 206-229 (p. 207), cité dans Jacquelyn Burkell et Priscilla M. Regan, « Voter Preferences, Voter Manipulation, Voter Analytics: Policy Options for Less Surveillance and More Autonomy », Internet Policy Review, vol. 8, no 4, 2019, p.6 (en anglais seulement); Hunt Allcott et Matthew Gentzkow, « Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives, vol. 31, no 2, 2017, p. 211-235 (p. 221) (en anglais seulement).

Note 98 Eli Praiser, The Filter Bubble: What the Internet Is Hiding from You, Londres, Penguin, 2011, cité dans Seth Flaxman, Sharad Goel et Justin M. Rao, « Filter Bubbles, Echo Chambers, and Online News Consumption », Public Opinion Quarterly, vol. 80, 2016, p. 298-320 (p. 299) (en anglais seulement).

Note 99 C. Thi Nguyen, « Echo Chambers and Epistemic Bubbles », Episteme, 2018, p. 1-21; Cass R. Sunstein, Republic 2.0, Princeton (New Jersey), Princeton University Press, 2009 et Eli Praiser, The Filter Bubble: What the Internet Is Hiding from You, Londres, Penguin, 2011, cité dans Seth Flaxman, Sharad Goel et Justin M. Rao, « Filter Bubbles, Echo Chambers, and Online News Consumption », Public Opinion Quarterly, vol. 80, 2016, p. 298-320 (p. 299) (en anglais seulement). Fait à noter, les « bulles de filtre » et les « chambres d'écho » sont des concepts encore contestés dans le milieu académique.

Note 100 Jeffrey A. Karp, Alessandro Nai et Pippa Norris, « Dial "F" for Fraud: Explaining Citizens' Suspicions about Elections », Electoral Studies, vol. 53, no 2, 2018, p. 11-19; Sarah Birch, « Perceptions of Electoral Fairness and Voter Turnout », Comparative Political Studies, vol. 43, no 12, décembre 2010), p. 1601-1622 (p. 1615-1616) (en anglais seulement).

Note 101 Tiffany Lizée, « Social media plays major role in 2019 federal election », Global News, 21 octobre 2019. https://globalnews.ca/news/6060008/social-media-federal-election/ (en anglais seulement).

Note 102 À la suite de l'élection fédérale de 2015, 92 % des électeurs interrogés étaient d'avis qu'Élections Canada avait géré l'élection de façon équitable, et 92 % avaient un niveau de confiance élevé par rapport à l'exactitude des résultats (Élections Canada, Sondage auprès des électeurs à la suite de la 42e élection générale, https://www.elections.ca/content.aspx?section=res&dir=rec/eval/pes2015/surv&document=p11&lang=f). Au Canada, le niveau de confiance dans les élections (71 %) est plus élevé par rapport à d'autres pays de l'OCDE, comme le Royaume-Uni (65 %), le Danemark (55 %), la France (54 %) et les États-Unis (37 %). Gallup, « Gallup World Poll », 2017, cité dans Keith Neuman, « Canadians' Confidence in National Institutions Steady », Options politiques, 2018, https://policyoptions.irpp.org/fr/magazines/august-2018/canadians-confidence-in-national-institutions-steady/ (en anglais seulement).

Note 103 Proof Inc., « CanTrust Index 2019 », https://www.getproof.com/thinking/the-proof-cantrust-index/ (en anglais seulement). Entre 2016 et 2019, la confiance de la population canadienne a diminué de 14% à l'égard des médias d'information, de 4% à l'égard des gouvernements et de 10% à l'égard des dirigeants. En 2019, seulement la moitié des Canadiens a jugé le système électoral « juste et représentatif ».

Note 104 Ashley Burke, « Elections Canada tried to beat back "implausible" online rumours about pencils spoiling ballots », CBC News, 9 novembre 2019, https://www.cbc.ca/news/politics/disinformation-pencil-smudging-ballot-election-2019-1.5353018/ (en anglais seulement).

Note 105 Jennifer Kavanagh et Michael D. Rich, Truth Decay: An Initial Exploration of the Diminishing Role of Facts and Analysis in American Public Life, Santa Monica (Californie), RAND Corporation, 2018, https://www.rand.org/pubs/research_reports/RR2314.html/; Uri Friedman, « Trust Is Collapsing in America », The Atlantic, 21 janvier 2018, https://www.theatlantic.com/international/archive/2018/01/trust-trump-america-world/550964/ (en anglais seulement).