open Menu secondaire

Contenu organique et payant sur les plateformesDocument de discussion 2 : L'incidence des plateformes de médias sociaux lors des élections

Lors de l'élection générale de 2019, les citoyens ont utilisé une multitude de plateformes de médias numériques et sociaux pour créer divers contenus, allant des mèmes aux débats des chefs, et y réagir. Des entités politiques réglementées, notamment des candidats, des partis politiques et des tiers, étaient également actives sur plusieurs grandes plateformes, tout comme des organes de presse et des groupes de la société civile. Élections Canada a utilisé du contenu organique et des publicités numériques pour indiquer aux électeurs où, quand et comment s'inscrire et voter, en plus de participer à des initiatives spéciales des plateformes pour mieux faire connaître la tenue de l'élection et le processus d'inscription9.

Au Canada, les médias sociaux représentent un marché important avec quelque 25 millions d'utilisateurs actifs. Le marché est dominé par quelques grandes plateformes commerciales, les plus populaires étant YouTube (85 % des internautes âgés de 16 à 64 ans affirment l'avoir utilisé au cours du dernier mois), Facebook (79 %), Instagram (53 %), Twitter (40 %) et Pinterest (35 %). Les Canadiens sont aussi actifs sur LinkedIn (29 %), Snapchat (28 %), Reddit (25 %), WeChat (9 %) et TikTok (9 %), entre autres10.

Les plateformes de médias numériques et sociaux se distinguent des autres espaces où les Canadiens peuvent entrer en contact et interagir avec d'autres personnes pour échanger de l'information et des idées. Pour engager une discussion fructueuse sur la façon dont les plateformes façonnent l'information numérique et influencent le processus démocratique, et pour réfléchir aux moyens de combler les lacunes en matière de réglementation, il importe de bien comprendre les fonctionnalités et l'architecture des plateformes. Cette section s'appuie sur la recherche pour décrire comment les plateformes de médias numériques et sociaux organisent, modèrent et diffusent du contenu organique et du contenu payant.

Contenu organique

Au Canada, relativement peu de règles s'appliquent au contenu organique, soit le contenu publié gratuitement par un annonceur (un particulier ou une organisation) sur les plateformes de médias sociaux11. Ce contenu est régi par les règles du droit criminel et civil en matière d'expression et, en période préélectorale et électorale, par certaines dispositions de la Loi électorale du Canada (LEC) qui interdisent l'usurpation de l'identité d'Élections Canada et des entités politiques, la publication de renseignements trompeurs pour influencer le résultat d'une élection, et d'autres fausses déclarations au sujet des candidats ou des personnes associées aux partis.

Autrement, la gouvernance du contenu organique relève principalement des plateformes. Avant l'élection générale de 2019, de nombreuses plateformes se sont engagées à prendre des mesures pour protéger l'intégrité électorale, par exemple, en améliorant la sécurité des comptes des campagnes électorales et en mettant en place des réseaux de contacts pour permettre aux entités politiques et à Élections Canada de signaler tout incident lié à l'élection. Certaines plateformes ont également signé la Déclaration du Canada sur l'intégrité électorale en ligne, une initiative volontaire du gouvernement, s'engageant à supprimer les faux comptes, les agents logiciels (communément appelés bots) et le contenu non authentique12.

Les plateformes régissent le contenu organique en définissant ce qui est possible, autorisé et promu. Elles déterminent les fonctionnalités offertes aux utilisateurs, comme les boutons qui permettent aux utilisateurs d'aimer ou de partager du contenu en un clic13. La plupart des plateformes communiquent les paramètres d'activité d'un compte (nombres de mentions j'aime, de partages, d'abonnés, etc.), précisant la popularité d'un contenu et donnant aux utilisateurs une rétroaction en temps réel sur la portée de leurs publications14. Par la création et l'application de politiques, comme des conditions d'utilisation et des normes de communauté, les plateformes gèrent les comptes et leur contenu, et suppriment ce qu'elles jugent inacceptable15. En outre, les plateformes favorisent certains contenus plutôt que d'autres au moyen d'algorithmes de recommandation16.

Les algorithmes de recommandation exercent une grande influence : ils déterminent ce que voit chaque utilisateur, ce qu'il voit en premier et ce qu'il ne voit pas dans son fil de nouvelles (p. ex. le fil d'actualité Facebook ou la fonction de lecture automatique de YouTube). Bien que les algorithmes diffèrent d'une plateforme à l'autre, changent souvent et soient pratiquement inconnus des utilisateurs et des entités externes, les chercheurs ont une idée générale de leur fonctionnement.

Bon nombre d'algorithmes de recommandation attribuent un indice de pertinence à tous les éléments de contenu, en fonction du profil personnel et comportemental de chaque utilisateur (voir ci-dessous pour plus de détails), afin de prédire comment un utilisateur donné répondra à chacun des éléments de contenu17. Par la suite, ils utilisent cette information pour classer le contenu dans le fil de nouvelles d'un utilisateur, en affichant d'abord le contenu qui génère le plus d'activités (clics, lectures de vidéos, mentions j'aime, commentaires ou partages)18.

En favorisant le contenu qui génère de fortes réactions, les algorithmes augmentent généralement la portée du contenu provocateur, divertissant et percutant19. La recherche indique que l'effet des algorithmes de recommandation, associé à la réponse de l'être humain aux stimuli émotionnels, peut réduire la capacité de l'utilisateur de repérer et d'accéder à de l'information fiable. Par exemple, une étude sur l'intérêt accordé au contenu sur Twitter a démontré que les publications qui expriment un « désaccord avec indignation » entraînent près de deux fois plus d'activités que d'autres types de contenu; chaque mot d'un gazouillis qui est associé au sens moral ou à une émotion (par exemple, « cupidité », « mal » ou « honte ») en augmente la portée de 20 %20. Une autre étude a démontré que les utilisateurs sont plus enclins à croire et à partager des articles dont les titres sont chargés d'émotion, même s'ils n'ont pas lu ni évalué l'article21. Une troisième étude a montré que les utilisateurs de Twitter sont 70 % plus enclins à partager de fausses nouvelles – souvent sensationnelles et hors de l'ordinaire – que des faits22. Bien que les créateurs de contenu d'autres médias puissent aussi tendre vers le sensationnalisme pour capter davantage l'attention, la tendance est nettement plus marquée sur les plateformes de médias sociaux parce qu'elles permettent de connaître en temps réel la réaction des abonnés (mentions j'aime, partages, gazouillis partagés)23.

Pour les utilisateurs, il peut être également difficile d'évaluer la validité de l'information sur ces plateformes, car dans la plupart des cas, la source du contenu, son authenticité, sa qualité ou les intérêts de ceux qui ont créé ou partagé ce contenu ne sont pas indiqués clairement24. Incapables d'évaluer les faits et les motifs qui sous-tendent chaque message qu'ils voient, les utilisateurs peuvent prendre des raccourcis cognitifs : ils ont tendance à croire les publications qui proviennent de leurs amis, qui sont répétées ou qui sont accompagnées de photos25. La difficulté des utilisateurs à évaluer l'information est d'autant plus grande lorsqu'une personne en qui ils ont confiance, comme un dirigeant politique, publie ou partage de l'information inexacte ou trompeuse26.

« S'il existe une vérité fondamentale quant à l'incidence des réseaux sociaux sur la démocratie, c'est qu'ils amplifient les intentions des utilisateurs, qu'elles soient bonnes ou mauvaises. Dans le meilleur des cas, ils nous permettent de nous exprimer et d'agir. Dans le pire des cas, ils permettent aux gens de répandre la mésinformation et ils minent la démocratie. J'aimerais pouvoir garantir que les points positifs l'emporteront sur les points négatifs, mais je ne peux le faire. » Samidh Chakrabarti, responsable de l'engagement civique, Facebook27

Publicité numérique basée sur les données

Le marché de la publicité numérique au Canada est important : en 2019, les publicités numériques représentaient 53,5 % des dépenses publicitaires, soit 8,8 milliards de dollars28. À l'élection générale de 2019, en plus du contenu organique, les Canadiens ont été exposés à du contenu politique sous forme de publicités numériques. La présente section décrit en général le fonctionnement des services de publicité numérique basée sur les données, particulièrement dans le contexte électoral canadien.

La plupart des plateformes de médias sociaux offrent des services de publicité basée sur les données. Pour ce faire, elles utilisent des logiciels automatisés qui permettent aux annonceurs de tirer profit des données des utilisateurs pour cibler et optimiser leurs messages publicitaires. Certaines entreprises, notamment Google, proposent également des publicités basées sur les données qui s'affichent sur les pages de résultats générées par le moteur de recherche et sur des sites Web29. Presque toutes les publicités numériques sont maintenant basées sur les données30, Google et Facebook occupant près des trois quarts du marché canadien31.

Les publicités sont généralement plus réglementées que le contenu organique. Pendant les périodes préélectorales et électorales définies par la LEC, des plafonds32 s'appliquent à certaines dépenses publicitaires, de même que des exigences en matière de rapports. Toute publicité doit aussi être accompagnée d'un énoncé d'autorisation indiquant qui l'a payée33. Avant l'élection générale de 2019, une nouvelle disposition de la LEC est entrée en vigueur : elle oblige les plateformes et les sites Web qui atteignent un seuil défini de visiteurs et qui diffusent des publicités réglementées en période préélectorale ou électorale à créer un registre des publicités34.

Les registres des publicités doivent rendre publiques les publicités réglementées et indiquer qui a payé chacune d'elles35. Les grandes plateformes ont réagi à cette nouvelle obligation de diverses façons : Google a annoncé qu'il interdirait toute publicité partisane et thématique au Canada36; Twitter a annoncé qu'il accepterait de telles publicités seulement en période électorale37; et Facebook ainsi que d'autres plateformes ont continué à accepter ces publicités, qu'ils ont consignées dans un registre38.

Fonctionnement des services de publicité numérique basée sur les données

La façon dont les services de publicité basée sur les données diffusent et optimisent les messages publicitaires, et en fixent le prix, est différente des canaux de publicité traditionnels, comme la télédiffusion. Ces services, conçus à des fins commerciales, sont très efficaces : ils permettent aux annonceurs de cibler des consommateurs avec précision et d'optimiser leurs messages publicitaires en fonction de la réaction qu'ils suscitent en temps réel chez des segments ciblés de leur auditoire39.

Les données sont au cœur de la publicité numérique : les plateformes peuvent détenir des dizaines de milliers de caractéristiques propres à un seul utilisateur40. Il peut s'agir de données fournies par les utilisateurs, de données inférées ou de données comportementales41. On trouve également des données psychographiques42 et des renseignements personnels très détaillés achetés auprès de courtiers en données43.

Les plateformes utilisent ces données abondantes afin de créer des segments d'utilisateurs pour les acheteurs de publicité. L'une d'entre elles, par exemple, proposerait 29 000 segments fondés sur des caractéristiques telles que l'origine ethnique, le revenu, le fait d'être en faveur de l'allaitement et l'utilisation d'appareils intelligents44. Certaines plateformes permettent aux annonceurs d'utiliser l'adresse courriel, le numéro de téléphone ou le code postal de clients pour cibler des individus45. D'autres permettent également de cibler des utilisateurs semblables à un auditoire donné, en fonction de caractéristiques que la plateforme « juge » pertinentes, mais qui ne sont mentionnées expressément ni à l'annonceur ni aux cibles publicitaires46.

Exploitant leurs données détaillées sur les utilisateurs, les algorithmes d'apprentissage automatique optimisent instantanément les publicités, en visant les utilisateurs les plus réceptifs, selon le format du message et le moment de sa diffusion47. Grâce à ces outils, les annonceurs peuvent établir le profil des consommateurs en fonction de leur sensibilité à divers types de messages, et créer diverses versions des publicités pour trouver la stratégie de persuasion la plus efficace pour chaque utilisateur, soit en misant sur un attrait envers l'autorité ou l'identité ou sur une préférence pour certaines couleurs ou images48. Ces services de publicité qui utilisent des algorithmes d'apprentissage automatique permettent aux annonceurs de relayer des publicités en continu, allant souvent jusqu'à en diffuser des milliers voire des dizaines de milliers en même temps, dont bon nombre s'adressent à un public restreint, afin de trouver les publicités qui capteront l'attention.

Le modèle tarifaire de la publicité basée sur les données est également unique. De nombreuses plateformes proposent un système d'enchères en temps réel, selon lequel plusieurs annonceurs rivalisent pour cibler des groupes particuliers. Par exemple, si l'entreprise A souhaite faire de la publicité auprès des skieurs, et l'entreprise B auprès des femmes de l'Alberta, lorsqu'une skieuse de Calgary ouvre une session, la plateforme évalue, à partir de calculs effectués en quelques microsecondes, les offres des entreprises et présente à cette femme l'annonce du soumissionnaire retenu49.

Pour choisir une soumission, certaines plateformes tiennent compte d'autres facteurs que le prix, comme la pertinence, soit la probabilité que les utilisateurs visés regardent, partagent ou cliquent sur une publicité50. Une plateforme a déclaré qu'elle subventionnait les publicités pertinentes mises aux enchères, de sorte que les publicités plus pertinentes coûtent souvent moins cher et donnent plus de résultats 51. Les services de publicité basée sur les données des plateformes permettent également aux annonceurs d'optimiser leurs campagnes pour susciter des comportements précis : par exemple, si un annonceur souhaite augmenter le nombre de partages, la plateforme diffuse ses publicités aux personnes les plus susceptibles de les partager, à un moindre coût52.

Un grand nombre d'annonceurs apprécient les services de publicité basée sur les données, précisément en raison de l'utilisation de données et de la possibilité d'optimiser la diffusion d'une publicité à un coût relativement faible.

Bien souvent, les utilisateurs ne savent pas comment ni pourquoi ils voient certaines publicités ni l'incidence de leurs clics, de leurs mentions j'aime et de leurs partages sur les publicités qu'ils verront par la suite. De même, les annonceurs peuvent manquer d'information sur le fonctionnement des publicités basées sur les données. Par exemple, en raison des modèles de tarification utilisés par de nombreux services de publicité, les annonceurs ignorent souvent le montant facturé à un concurrent pour la diffusion de ses publicités, et leur facturation peut être plus ou moins élevée que celle de leurs concurrents selon le contenu de leur publicité et le groupe ciblé53. Cette situation soulève des questions sur l'équité des règles du jeu pour les acteurs politiques qui achètent des publicités numériques.

Notes de bas de page

Note 9 Élections Canada possède des comptes dans les deux langues officielles sur Facebook, Twitter, Instagram, YouTube et LinkedIn. Le jour de l'élection, on enregistrait un total de 109 000 abonnés pour ces comptes. Notre activité sur les médias sociaux faisait partie d'une vaste campagne multimédia visant à informer la population canadienne sur où, quand et comment s'inscrire et voter. Par exemple, Facebook a partagé un lien vers le service d'inscription en ligne d'Élections Canada pour encourager les Canadiens ayant le droit de vote à s'inscrire pour voter.

Note 10 GlobalWebIndex (T3, 2019), cité dans We Are Social, « Digital 2020: Canada », 2020, diapositive 43, https://wearesocial.com/ca/digital-2020-canada (les chiffres se fondent sur le comportement déclaré par les internautes) (en anglais seulement).

Note 11 Bien que relativement peu de règles régissent la diffusion du contenu organique, rappelons que les coûts de production d'une publicité (p. ex. les dépenses associées à une vidéo qui est ultérieurement partagée organiquement) peuvent constituer une dépense visée par les règles de financement politique de la Loi électorale du Canada (ci-après la « LEC »).

Note 12 Gouvernement du Canada, « Déclaration du Canada sur l'intégrité électorale en ligne », 2019, www.canada.ca/fr/institutions-democratiques/services/protection-democratie/declaration-integrite-ectorale.html. Voir aussi Joan Bryden, « Des géants du web signent une "Déclaration sur l'intégrité électorale en ligne" », Le Devoir, 27 mai 2019, www.ledevoir.com/societe/science/555441/des-geants-du-web-signent-une-declaration-sur-l-integrite-electorale-en-ligne.

Note 13 Jonathan Haidt et Tobias Rose-Stockwell, « The Dark Psychology of Social Networks: Why It Feels Like Everything Is Going Haywire », The Atlantic, décembre 2019, https://www.theatlantic.com/magazine/archive/2019/12/social-media-democracy/600763/ (en anglais seulement).

Note 14 Ibid. L'une des méthodes utilisées consiste à tester plusieurs manchettes traitant d'un même sujet pour trouver celle qui génère le taux de clics le plus élevé, puis à diffuser cette manchette. Cette pratique a fait naître des pièges à clics du genre « vous ne croirez jamais ce qui est arrivé ».

Note 15 Par exemple, voir les normes de communauté de Facebook à https://fr-ca.facebook.com/communitystandards/objectionable_content ou les règles de Twitter à https://help.twitter.com/fr/rules-and-policies/twitter-rules.

Note 16 Renee Diresta, « Up Next: A Better Recommendation System », Wired Magazine, 4 novembre 2018, https://www.wired.com/story/creating-ethical-recommendation-engines/ (en anglais seulement).

Note 17 Will Oremus, « Who Controls Your Facebook Feed », Slate, 3 janvier 2016, http://www.slate.com/articles/technology/cover_story/2016/01/how_facebook_s_news_feed_algorithm_works.html/ (en anglais seulement).

Note 18 Taylor Owen, « The Case for Platform Governance », Centre for International Governance Innovation Papers Series, article no 231, 4 novembre 2019, p. 3-4, https://www.cigionline.org/sites/default/files/documents/Paper%20no.231web.pdf (en anglais seulement).

Note 19 Will Oremus, « Who Controls Your Facebook Feed », Slate, 3 janvier 2016, http://www.slate.com/articles/technology/cover_story/2016/01/how_facebook_s_news_feed_algorithm_works.html/. Oremus souligne, par exemple, que les algorithmes de Facebook ont tendance à récompenser le contenu qui est « conçu pour devenir viral » en noyant les autres types de publications sur le fil d'actualité des utilisateurs.

Note 20 William J. Brady, Julian A. Wills, John T. Jost, Joshua A. Tucker et Jay J. van Bavel, « Emotion Shapes the Diffusion of Moralized Content in Social Networks », Proceedings of the National Academy of Sciences of the United States of America, vol. 114, no 28, 11 juillet 2017 (première publication le 26 juin 2017), p. 7313-7318 (p. 7313), https://doi.org/10.1073/pnas.1618923114 (en anglais seulement); Pew Research Center, « Partisan Conflict and Congressional Outreach », 23 février 2017, www.people-press.org/wp-content/uploads/sites/4/2017/02/LabsReport_FINALreport.pdf (en anglais seulement), cité dans Jonathan Haidt et Tobias Rose-Stockwell, « The Dark Psychology of Social Networks: Why It Feels Like Everything Is Going Haywire », The Atlantic, décembre 2019, www.theatlantic.com/magazine/archive/2019/12/social-media-democracy/600763/ (en anglais seulement).

Note 21 Giovanni Luca Ciampaglia et Filippo Menczer, « Biases Make People Vulnerable to Misinformation Spread by Social Media », Scientific American, 21 juin 2018, www.scientificamerican.com/article/biases-make-people-vulnerable-to-misinformation-spread-by-social-media (en anglais seulement).

Note 22 Soroush Vosoughi, Deb Roy et Sinan Aral, « The spread of true and false news online », Science 359, no 6380, 8 mars 2018, p. 1146-1151 (p. 4), https://science.sciencemag.org/content/sci/359/6380/1146.full.pdf (en anglais seulement).

Note 23 Hunt Allcott et Matthew Gentzkow, « Social Media and Fake News in the 2016 Election », Journal of Economic Perspectives, vol. 31 no 2, 2017, p. 211-235 (p. 212 et 214).

Note 24 Siva Vaidhyanathan, Anti-Social Media, New York, Oxford University Press, 2018 (en anglais seulement).

Note 25 Eryn J. Newman et Lynn Zhang. 2020. « Truthiness: How Non-Probative Photos Shape Belief », dans R. Greifeneder, M. Jaffé, E.J. Newman and N. Schwarz (dir.), « The Psychology of Fake News: Accepting, Sharing, and Correcting Misinformation », New York, Routledge, 2020, www.researchgate.net/publication/337032205_Truthiness_How_Non-Probative_Photos_Shape_Belief (en anglais seulement); American Press Institute, « Who Shared It?': How Americans Decide What News to Trust on Social Media », 20 mars 2017, https://www.americanpressinstitute.org/publications/reports/survey-research/trust-social-media/ (en anglais seulement).

Note 26 Briony Swire, Adam J. Berinsky, Stephan Lewandowsky et Ullrich K.H. Ecker, « Processing Political Misinformation: Comprehending the Trump Phenomenon », Royal Society Open Science, vol. 4, no 3, 2017, p. 16, www.ncbi.nlm.nih.gov/pmc/articles/PMC5383823 (en anglais seulement).

Note 27 Samidh Chakrabarti, « Hard Questions: What Effect Does Social Media Have on Democracy? », blogue Facebook, 22 janvier 2018, https://about.fb.com/news/2018/01/effect-social-media-democracy (en anglais seulement).

Note 28 Paul Briggs, « Canada Digital Ad Spending 2019 », eMarketer, 28 mars 2019, https://www.emarketer.com/content/canada-digital-ad-spending-2019 (en anglais seulement).

Note 29 « Annonces et données », Centre de sécurité, Google, https://safety.google/intl/fr/privacy/ads-and-data/.

Note 30 Cité dans Bree Rody, « Programmatic to Dominate in Canada by 2020: Study », Media in Canada, 26 novembre 2018, https://mediaincanada.com/2018/11/26/programmatic-to-dominate-in-canada-by-2020-study (en anglais seulement).

Note 31 Paul Briggs, « Canada Digital Ad Spending 2019 », eMarketer, 28 mars 2019. https://www.emarketer.com/content/canada-digital-ad-spending-2019 (en anglais seulement).

Note 32 LEC, L.C. 2000, ch. 9., art. 350(1)b), 429.1 et 430(1).

Note 33 S'il n'y a pas suffisamment d'espace pour inclure un énoncé d'autorisation dans une publicité numérique, l'énoncé peut apparaître sur une page redirigé immédiatement par un lien dans le message publicitaire. Pour en savoir plus, voir Élections Canada, Publicité électorale sur Internet, note d'interprétation 2015-04, 30 juillet 2015, www.elections.ca/content.aspx?section=res&dir=gui/reg&document=index&lang=f.

Note 34 LEC, infra, art. 325.1 et 325.2.

Note 35 Élections Canada, « Nouvelles obligations pour les plateformes en ligne concernant les registres de publicités politiques », https://www.elections.ca/content.aspx?section=pol&dir=regifaq&document=index&lang=f.

Note 36 Tom Cardoso, « Google to ban political ads ahead of federal election, citing new transparency rules », The Globe and Mail, https://www.theglobeandmail.com/politics/article-google-to-ban-political-ads-ahead-of-federal-election-citing-new/ (en anglais seulement).

Note 37 Michele Austin, « An update on Canadian political advertising », blogue Twitter, 29 août 2019, https://blog.twitter.com/en_ca/topics/company/2019/update_canadian_political_advertising_2019.html (en anglais seulement).

Note 38 « Updates to ads about social issues, elections or politics », Facebook for Business, mis à jour le 25 juin 2019, https://www.facebook.com/business/news/updates-to-ads-about-social-issues-elections-or-politics. L'Alliance de la publicité numérique du Canada fournit un lien vers les registres des publicités pour Bell Média, CBC/Radio-Canada, Facebook, The Globe and Mail, Postmedia et Rogers : https://politicalads.ca/fr/au-sujet-de-la-political-ads/.

Note 39 Anthony Nadler, Matthew Crain et Joan Donovan, « Weaponizing the Digital Influence Machine: The Political Perils of Online Ad Tech », Data & Society, 17 octobre 2018, p.18.

Note 40 Ibid., p. 11-12.

Note 41 Ibid., p. 11-13.

Note 42 On entend par « données psychographiques » les données recueillies en analysant « les activités, les intérêts et les opinions » des consommateurs, comme leurs goûts en matière de cinéma, de restaurants et de musique, leur type de voiture, leurs habitudes de lecture et d'écoute de la télévision, les lieux qu'ils fréquentent et leur adhésion à des clubs (CBInsights, 2018; Kranish, 2016). Ces données ne se limitent pas aux données démographiques habituellement utilisées en marketing, telles que l'âge, le sexe ou la race, et peuvent être utilisées pour générer des messages très ciblés, qui « déclenchent une série de réactions émotionnelles et subconscientes » en exploitant les vulnérabilités et les préjugés de chaque consommateur (CBInsights, 2018; Chester et Montgomery, 2017, p. 6-7). Des entreprises telles que Cambridge Analytica ont utilisé des données psychographiques pour élaborer des messages « adaptés aux vulnérabilités de chaque électeur » afin d'influencer le vote (Chester and Montgomery, 2017, p. 6-7). Voir CBInsights, « What is Psychographics? Understanding the "Dark Arts" of Marketing That Brought Down Cambridge Analytica », CBInsights, 7 juin 2018, https://www.cbinsights.com/research/what-is-psychographics/; Jeff Chester et Kathryn C. Montgomery, « The Role of Digital Marketing in Political Campaigns », Internet Policy Review, vol. 6, no 4 (décembre 2017), p. 1-20, p. 6-7; Michael Kranish, « Trump's Plan for a Comeback Includes Building a "Psychographic" Profile of Every Voter », The Washington Post, 27 octobre 2016, https://www.washingtonpost.com/politics/trumps-plan-for-a-comeback-includes-building-a-psychographic-profile-of-every-voter/2016/10/27/9064a706-9611-11e6-9b7c-57290af48a49_story.html (en anglais seulement).

Note 43 Anthony Nadler, Matthew Crain et Joan Donovan, « Weaponizing the Digital Influence Machine: The Political Perils of Online Ad Tech », Data & Society, 17 octobre 2018, p. 13 et 18 (en anglais seulement).

Note 44 Julia Angwin, Surya Mattu et Terry Parris Jr, « Facebook Doesn't Tell Users Everything It Really Knows About Them », ProPublica, 27 décembre 2016, https://www.propublica.org/article/facebook-doesnt-tell-users-everything-it-really-knows-about-them/ (en anglais seulement).

Note 45 Par exemple, Facebook nomme cette fonctionnalité « audiences personnalisés », https://fr-ca.facebook.com/business/help/381385302004628.

Note 46 Par exemple, Facebook nomme cette fonctionnalité « audiences similaires », https://fr-ca.facebook.com/business/help/164749007013531?id=401668390442328.

Note 47 Jerry Dischler, « Putting Machine Learning into the Hands of Every Advertiser », blogue Google, 10 juillet 2018, https://www.blog.google/technology/ads/machine-learning-hands-advertisers/ (en anglais seulement).

Note 48 Matt Gay, « Machine Learning Will Transform the Advertising Industry », CMS Wire, 26 octobre 2017, https://www.cmswire.com/digital-marketing/machine-learning-will-transform-the-advertising-industry/ (en anglais seulement).

Note 49 Adaptation de l'exemple fourni par Facebook. Facebook, « Diffusion des publicités », pages d'aide pour les entreprises, https://fr-fr.facebook.com/business/help/430291176997542?id=561906377587030%2F.

Note 50 Facebook, « Coûts engendrés par la diffusion de publicités sur Facebook », pages d'aide pour les entreprises de Facebook, https://fr-ca.facebook.com/business/help/201828586525529?id=629338044106215.

Note 51 Facebook, « Diffusion des publicités », pages d'aide pour les entreprises de Facebook, https://fr-ca.facebook.com/business/help/430291176997542?id=561906377587030.

Note 52 Selon Facebook, « [l]orsque vous sélectionnez l'option "Optimisation de la diffusion des publicités" pour un ensemble de publicités, vous nous demandez d'obtenir le plus de résultats possible, de la façon la plus efficace qui soit. Par exemple, si vous optimisez les clics sur des liens, vos publicités ciblent les personnes de votre auditoire qui sont les plus susceptibles de cliquer sur les liens associés à des publicités. » Facebook, « À propos de l'optimisation pour la diffusion des publicités », pages d'aide pour les entreprises de Facebook, https://fr-ca.facebook.com/business/help/355670007911605?id=561906377587030.

Note 53 Un ancien membre de l'équipe de publicité de Facebook a déclaré, dans une chronique, que l'architecture publicitaire de la plateforme a permis de réduire considérablement les frais de publicité pour la campagne de Trump, comparativement à la campagne de Clinton, à l'élection de 2016 : « À l'approche de l'élection, les campagnes de Trump et de Clinton ont rivalisé impitoyablement pour accroître leur présence en ligne auprès des électeurs d'un État pivot. Toutefois, parce que Trump a utilisé du contenu provocateur pour créer un engouement dans les médias sociaux et qu'il était plus à même que Clinton de générer des mentions j'aime, des commentaires et des partages, ses enchères ont été stimulées par le modèle de clic de Facebook, ce qui lui a permis d'accroître sa visibilité dans les médias à un coût moindre ». Antonio Garcia Martinez, « How Trump Conquered Facebook – Without Russian Ads », Wired, 23 février 2018, https://www.wired.com/story/how-trump-conquered-facebookwithout-russian-ads/ (en anglais seulement).