Sélection de la langue

Recherche

Série sur les nouveaux enjeux économiques : L'économie de l'attention (vidéo)

Description : Le neuvième événement de la Série sur les nouveaux enjeux économiques explore les questions politiques clés qui sont apparues par l'intermédiaire de l'économie de l'attention et examine le rôle du gouvernement en vue de contrer les conséquences néfastes pour notre santé individuelle et sociétale.

Série sur les nouveaux enjeux économiques : L'économie de l'attention

Vidéo en anglais seulement

Date : 12 janvier 2022

Durée : 01:30:21

Résolution : 1080p


Transcription

[Le logo blanc animé de l'École de la fonction publique du Canada se dessine sur un fond violet. Une page apparaît, puis elle se transforme en livre ouvert. Une feuille d'érable apparaît au milieu du livre, qui ressemble aussi à un drapeau en dessous duquel se trouvent des lignes courbes. Le texte suivant s'affiche à côté du logo : « Webcast | Webdiffusion ». Le texte et le logo disparaissent en fondu pour laisser place à un écran de vidéoclavardage. On voit un plan serré d'Owen Ripley, un homme aux cheveux foncés qui porte des lunettes carrées et des écouteurs. Il est assis devant une étagère décorative noire. Pendant qu'il parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche de l'écran pendant quelques secondes. Il y est inscrit « Owen Ripley, Patrimoine canadien ».]

Owen Ripley : Bonjour à tous. Bon après-midi pour ceux qui se trouvent au centre du Canada et sur la côte est et encore bonjour à ceux qui nous rejoignent depuis la côte ouest. Bienvenue à la sixième activité de la Série sur les nouveaux enjeux économiques, un partenariat entre l'École de la fonction publique du Canada et le Centre pour l'innovation dans la gouvernance internationale, ou CIGI. Je m'appelle Owen Ripley et je dirige l'équipe du ministère du Patrimoine canadien chargée de la diffusion du droit d'auteur et du marché de la création.

J'ai le plaisir d'être votre modérateur et de guider la conversation d'aujourd'hui avec cet excellent panel. D'entrée de jeu, j'aimerais prendre le temps de souligner que je me joins à vous en provenance de la région de la capitale nationale, qui se trouve sur le territoire traditionnel du peuple algonquin Anishinaabe. Entre autres choses, nous procédons à cette reconnaissance des terres afin de respecter et d'inclure davantage les Premières nations qui ont une longue histoire avec ces terres. À ce propos, je m'en voudrais de ne pas rappeler qu'il y a un an aujourd'hui, George Floyd était tué par un policier, ce qui a propulsé le mouvement Black Lives Matter dans la conscience publique. Depuis lors, les organisations, les institutions et la société se sont attaquées à des questions difficiles liées au racisme systémique. Le service public n'y échappe pas. Pour ceux d'entre vous qui ont eu des échanges avec moi, vous savez que je crois passionnément au rôle et au mandat de la fonction publique, mais je sais aussi qu'elle risque de perdre sa crédibilité au fil du temps si elle ne reflète pas mieux les Canadiens qu'elle sert.

Les Canadiens méritent une fonction publique plus inclusive à l'égard des Noirs, des Autochtones, des personnes de couleur et des personnes handicapées. Aujourd'hui, nous devrions prendre un moment pour nous rappeler qu'il incombe à nous tous, en tant que fonctionnaires, de contribuer à créer cette culture plus inclusive.

Pour en revenir à l'événement en cours, je voudrais juste passer en revue quelques points d'ordre général. Le premier est celui que la traduction simultanée est offerte dans la langue de votre choix par l'entremise du portail. Vous devriez avoir reçu les instructions qui ont été envoyées avec votre lien de webémission. La traduction simultanée est offerte dans la langue de votre choix par l'entremise du portail. Des directives à cet effet de même que le texte d'exposé aujourd'hui vous ont été envoyés en même temps que le lien vers la webdiffusion. J'aimerais également souligner que nous espérons que la discussion d'aujourd'hui sera interactive. Nous aimerions que vous participiez et que vous présentiez vos questions. Bien que nous ayons une longue liste de questions que nous aimerions poser au panel, il serait préférable que vous participiez. Je vous invite vraiment, dès qu'une question vous vient à l'esprit, à utiliser la fonction Q&A de Zoom et à présenter votre question et nous ferons de notre mieux pour répondre à autant de questions que possible. Vous pouvez le faire en cliquant simplement sur l'option dans votre interface Zoom.

Comme je l'ai mentionné, je dirige l'équipe du ministère du Patrimoine canadien qui est aux prises avec un certain nombre de questions en matière de politique numérique dans le domaine de la radiodiffusion, des préjudices en ligne et de la rémunération des médias d'information. J'ai eu l'occasion d'entendre tous nos panélistes aujourd'hui, sous une forme ou une autre, ou d'interagir avec eux. Nous disposons vraiment d'une belle brochette d'experts pour nous éclairer sur ce phénomène appelé l'économie de l'attention. Pour certains d'entre vous, il se peut que vous passiez beaucoup de temps à réfléchir à l'économie de l'attention, et que vous participiez à un secteur de politique qui y est lié. Pour certains d'entre vous, vous êtes peut-être ici aujourd'hui juste pour en apprendre un peu plus sur le sujet.

Les panélistes d'aujourd'hui, quel que soit votre point de vue, rendent un grand service en apportant des clarifications. Nous accueillons Heidi Tworek, qui est professeure associée de politique publique et d'histoire internationale à l'Université de la Colombie-Britannique. Elle est agrégée supérieure au Centre pour l'innovation dans la gouvernance internationale, ou CIGI, et boursière chargée de cours non résidente au Fonds Marshall pour l'Allemagne des États-Unis.

[Trois autres invités se joignent à la conversation, et Owen se retrouve dans le coin inférieur droit. Dans le coin supérieur gauche, un homme chauve, Bob Fay, est assis dans une mansarde peinte en blanc, devant une bannière sur laquelle il est écrit « Centre pour l'innovation dans la gouvernance internationale » au dessus d'un grand édifice. Dans le coin supérieur droit, une jeune femme aux longs cheveux bruns avec des écouteurs, Samantha Bradshaw, est assise dans son bureau, chez elle, devant une étagère remplie de livres. Dans le coin inférieur gauche, une femme aux cheveux bruns tirés vers l'arrière et portant des lunettes, Heidi Tworek, est assise devant un mur blanc et un grand meuble faisant office de lampe et d'étagère.]

Elle est boursière chargée de cours non résidente de l'Institut canadien des affaires mondiales et co-rédactrice en chef du Journal of Global History. Heidi est une spécialiste de la gouvernance des plateformes, de l'histoire des technologies des médias et des communications dans le domaine de la santé. Nous accueillons Samantha Bradshaw, qui est boursière de recherches postdoctorales à l'Université de Stanford, où elle contribue aux travaux de l'Internet Observatory et du Digital Civil Society Lab. Elle est également agrégée supérieure au CIGI et contribue activement à des groupes d'experts internationaux, notamment en ce qui concerne les effets de la technologie sur la démocratie. Samantha est une experte des producteurs et des moteurs de l'information et de la manière dont la technologie favorise et limite la diffusion de la désinformation en ligne. Enfin, et surtout, nous avons Bob Fay, qui est le directeur général de l'économie numérique au CIGI, où ses recherches portent sur les questions complexes de gouvernance mondiale découlant des technologies numériques. Il a occupé des postes de direction à la Banque du Canada, notamment en tant que directeur adjoint du service international et adjoint spécial du gouverneur de la Banque du Canada, Mark Carney. Encore une fois, bienvenue aux trois panélistes. Nous avons convenu que chaque panéliste prendrait quelques minutes au début, non pas pour faire un long discours, mais pour passer trois ou quatre minutes à faire quelques remarques préliminaires et à nous éclairer un peu sur ce phénomène de l'économie de l'attention. Bob, je crois que vous nous donnez le coup d'envoi.

Bob Fay : Excellent. Merci beaucoup, Owen, et c'est formidable d'être ici et de faire partie de ce panel avec Sam et Heidi qui sont vraiment les experts.

[L'image de Bob remplit l'écran. Pendant qu'il parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Robert Fay, Centre pour l'innovation dans la gouvernance internationale ».]

J'ai beaucoup appris d'eux, et j'ai beaucoup appris de ce que le gouvernement canadien et notre service public font dans ce domaine. Je pensais commencer par décrire ce que nous entendons par économie de l'attention. Je parlais à ma femme et à une de mes filles, et elles m'ont demandé ce que ça signifiait. Parce que du point de vue d'un parent, quand les enfants vont sur Internet, c'est l'économie de l'inattention. Ils ne veulent pas nous écouter. Bien sûr, la raison en est que lorsqu'ils sont en ligne, il y a beaucoup de choses sur ces sites Web qui retiennent leur attention et la nôtre plus généralement, car nous allons en ligne pour trouver des informations et pour communiquer avec nos amis et faire tout un tas de choses. Certains d'entre vous savent peut-être ce qui se passe en coulisse, mais je vais quand même le décrire. En fait, nous troquons nos données personnelles pour obtenir un service. Chaque fois que nous nous rendons sur un site Web ou une application, nous transmettons continuellement des données. Parfois, nous le faisons sciemment, et parfois nous n'avons aucune idée de ce qui se passe en raison des termes opaques des accords et d'autres choses de ce genre. Les conséquences de ce que nous faisons lorsque nous nous engageons dans cette économie de l'attention, je pense, sont beaucoup plus larges que ce simple troc.

D'abord, il y a ce modèle de technologie publicitaire qui fonctionne en arrière-plan. Lorsque vous entrez sur un site Web, les informations dont dispose Google sont essentiellement mises aux enchères, et ces enchères ont lieu pendant que vous chargez le site. Les informations vous concernant seront communiquées aux annonceurs qui décideront du montant qu'ils veulent payer en fonction de la quantité d'informations dont ils disposent sur vous, car plus ils en ont à leur disposition, plus ils auront de succès dans les publicités. Tout ça se passe jusqu'à ce que vous chargiez le site Web. Lorsque vous avez chargé le site Web, l'annonce est en place ou non, selon le déroulement de l'enchère. Bien sûr, imaginez que ça se produise des milliards et des milliards de fois par jour. En tant qu'économiste, c'est incroyablement impressionnant, mais en tant qu'individu et citoyen, ça peut être assez effrayant. Alphabet et Facebook gagnent des milliards et des milliards de dollars grâce à leur publicité. Cette économie de l'attention vaut littéralement une fortune.

Les sites Web utilisent de nombreuses techniques pour vous garder sur le site Web. Elles s'appellent Interfaces truquées, et vous pouvez les rechercher, mais elles font aussi d'autres choses. Je suis allé dans les paramètres de confidentialité de Google pour savoir ce qui me suivait. Si vous faites ça, vous finirez par découvrir, comme dans mon cas, je pense que j'avais 200 entreprises qui me suivaient. Je n'avais jamais entendu parler d'aucune d'entre elles. Je ne me souviens pas avoir donné mon accord pour qu'elles voient mes données. Chacune d'entre elles dit qu'elle est là pour m'aider à faire quelque chose de mieux. C'est vraiment bien, mais je n'étais certainement pas au courant. De nombreuses questions se posent : savez-vous quelles données ont été recueillies à votre sujet? Savez-vous ce que ça dit de vous ou ce que ça dit des autres? Dans le cas de nos enfants, savons-nous vraiment de quoi ils sont la cible et quelles données ils abandonnent? Une enquête a révélé que — je regarde mon écran — les enfants reçoivent une publicité toutes les dix secondes lorsqu'ils sont en ligne. Pensez-y. Pensez au nombre de publicités qu'ils reçoivent au cours d'une session. Toutes ces données créent ce que nous appelons une chaîne de valeur des données, et les données alimentent les algorithmes. Ces algorithmes sont utilisés par les plateformes pour faire quelque chose. Quels sont tous les problèmes qui pourraient survenir? Évidemment, il y a tout un tas de questions liées au consentement et au contrôle des données, à la manière dont les données sont utilisées et aux questions relatives aux algorithmes. Vous avez entendu parler de la partialité des algorithmes. Le biais dans les algorithmes peut être un biais dans les algorithmes ou un biais dans les données qui entrent dans les algorithmes et tout un tas d'autres choses. Je sais qu'Owen est probablement plus préoccupé que moi par la façon dont les acteurs privés utilisent nos données personnelles.

On s'inquiète beaucoup de Big Brother et de la façon dont le gouvernement peut utiliser nos données. Ce n'est que récemment que les gens ont commencé à se demander ce qu'il en était de ces plateformes de médias sociaux? Comment utilisent-elles nos données? Les enjeux sont très vastes. Je terminerai par ceci : ils sont vraiment profonds. Ils sont de nature mondiale. Il s'agit d'éléments tels que l'intégrité démocratique, le génocide, la radicalisation, la surveillance, le capitalisme, les fausses nouvelles, la désinformation et la mésinformation, qui peuvent créer des risques pour la sécurité et la santé publiques. Il y a ce que l'on appelle l'IA efficace et la manière dont les algorithmes peuvent être utilisés pour influencer notre comportement. Il y a tout un tas de problèmes de concurrence liés à certaines de ces technologies. Bien sûr, ce qui rend la tâche encore plus difficile pour un décideur politique, c'est que tous ces domaines sont liés entre eux. Je vais m'arrêter là pour ma salve d'ouverture.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Merci. Merci, Bob. Ce n'est pas du tout un petit ordre des choses à aborder. Je pense que nous allons passer à Sam pour reprendre ce fil de discussion.

Samantha Bradshaw : Génial. Oui. Merci beaucoup. Merci, Bob. Merci pour cet aperçu des données qui alimentent réellement l'économie de l'attention.

[L'image de Samantha remplit l'écran. Pendant qu'elle parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Samantha Bradshaw, chercheuse au CIGI ».]

J'aime l'analogie de l'économie de l'attention et de ces plateformes de médias sociaux comme étant des empires contemporains, mais ce sont des empires de nos esprits. C'est quelque chose qui m'a toujours marqué. C'est une bonne façon de le formuler. Les données que vous avez décrites sont vraiment ce qu'ils utilisent pour alimenter la construction et l'expansion de ces empires.

Je voulais axer un peu mes remarques, non seulement sur les données et ce qui se cache derrière, mais aussi particulièrement sur les algorithmes et les grandes structures systémiques en place qui vont pousser, persuader et diriger les utilisateurs vers certaines informations. Une grande partie de mon travail est centrée sur la désinformation, les fausses nouvelles, les théories du complot et la manière dont ce contenu peut se propager en ligne, et en particulier sur la manière dont les plateformes de médias sociaux, grâce à leurs technologies, peuvent favoriser ou limiter la diffusion de certaines informations nuisibles. Je pense qu'une grande partie de l'économie de l'attention a beaucoup à voir avec les algorithmes et la façon dont ils poussent les utilisateurs vers certains contenus. Quand on pense aux algorithmes et à la manière dont ils sont conçus pour nous garder accrochés et connectés, comme Bob l'a très bien décrit. Ils personnalisent le contenu et l'adaptent à nos besoins pour qu'il s'agisse de choses que nous aimons déjà, que nous trouvons intéressantes et que nous voulons regarder. Le type de contenu qui tend aussi à devenir viral, les choses que les gens ont tendance à regarder, tend à être un contenu beaucoup plus négatif, un contenu qui nous fait peur et qui nous met en colère. Bien sûr, il y a aussi du contenu qui nous rend heureux et qui devient viral. C'est pourquoi nous voyons des mèmes de chats et des vidéos de chiens mignons ou Charlie m'a mordu le doigt devenir viraux. Même si j'ai entendu que cette vidéo a été récemment vendue. Elle ne sera plus sur Internet, ce qui est un tout autre enjeu intéressant.

Pour en revenir au sujet, le contenu qui est très émotif et qui tend à susciter des émotions négatives a tendance à aller beaucoup plus loin, car c'est en partie la nature humaine. C'est le truc qu'on aime. Les gens aiment les complots. Nous aimons les rumeurs. Nous aimons faire des commérages et bavarder. Dans le même temps, les algorithmes renforcent un grand nombre de ces émotions, car ce sont elles qui incitent les gens à taper, à s'engager et à utiliser les plateformes. Plus nous passons de temps sur ces plateformes à regarder, à faire défiler, à clavarder, à aimer, à taper, à commenter et à nous indigner, plus nous recevrons de publicités. Il y a une tension entre le modèle économique et le contenu qui a tendance à devenir viral et à nous retenir, mais qui n'est pas nécessairement bon pour nous personnellement. Il n'est probablement pas nécessairement bon pour notre démocratie et pour trouver un terrain d'entente et négocier un consensus les uns avec les autres. Je pense que je vais m'en tenir à mes remarques préliminaires, mais j'ai hâte de poursuivre la discussion avec mes panélistes.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Merci. Merci, Sam. Passons à Heidi.

Heidi Tworek : Merci beaucoup. Bob et Sam ont très bien exposé la situation pour moi. Je vais commencer par mettre mon chapeau d'historien et dire que ce à quoi nous sommes confrontés ici, c'est, je pense, toute une série de vieilles peurs concernant les nouvelles technologies intégrées dans de nouvelles réalités.

[L'image de Heidi remplit l'écran. Pendant qu'elle parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Heidi Tworek, Université de la Colombie Britannique, chercheuse principale au CIGI ».]

Par exemple, je donne un cours sur l'histoire de l'information et je montre toujours à mes étudiants un journal entier datant de 1900, alors que la majeure partie de celui-ci est constituée de reportages sur la mort de grizzlis et le mariage de personnes qui se sont rencontrées dans des parcs. Si vous pensez aux choses qui deviennent virales, ça décrit essentiellement la commercialisation des journaux à la fin du 19e siècle, et nous trouvons des parlementaires et d'autres personnes également préoccupées par la façon dont l'information allant aux masses créera toutes sortes de protestations et de problèmes et comment l'information doit être contrôlée de différentes manières. Je dirais que beaucoup de ces peurs que nous avons sont anciennes — même les instructions sur ce que nous devons diffuser pour devenir viral sont anciennes. Vous pouvez trouver dans un manuel de 1930 une instruction selon laquelle les chats sont plus mignons que les chiens. Vous devriez mettre plus de photos de chats dans les journaux. Même l'idée que les mèmes de chats sont meilleurs que les mèmes de chiens — ce que je désapprouve fondamentalement en tant qu'amoureux des chiens. Ce sont aussi des choses qui sont en fait assez anciennes. Pourtant, ces craintes, je pense, sont ancrées dans des réalités fondamentalement nouvelles et de plusieurs manières différentes.

La première est la force de ces entreprises qui ne se contentent pas de parler de contenu. Elles font toutes sortes d'autres choses qui vous suivent de différentes manières. L'ampleur et la puissance des grandes entreprises. Les cinq premières grandes entreprises valent plus que l'ensemble de l'indice DAX des entreprises allemandes — c'est une échelle que nous n'avons pas vue dans le passé. Un autre aspect est l'aspect algorithmique qui est si microciblé. Je tiens à souligner que ça a parfois des conséquences vraiment terribles qui vont au-delà de ce que Bob et Sam ont mentionné, et ça inclut des choses qui sont vraiment nuisibles sur le plan psychologique. Par exemple, les femmes qui ont fait une fausse couche et qui ont déjà fait des recherches sur la grossesse continueront de bénéficier d'annonces concernant la grossesse et les bébés qui leur sont confiés. En fait, c'est la première année où certaines entreprises de médias sociaux ont permis aux gens de refuser de recevoir des notifications à l'occasion de la fête des Mères, parce que, bien sûr, pour certaines personnes, si vous avez perdu votre mère ou dans toutes sortes d'autres circonstances — vous êtes séparé — être continuellement notifié de la fête des Mères est en fait quelque chose qui peut être assez nuisible psychologiquement. Je pense qu'au-delà de la simple réflexion sur l'économie de l'attention, la crainte concerne la démocratie. Il y a aussi la manière dont ça peut nuire psychologiquement aux gens, car nous n'avons tout simplement pas la possibilité de refuser certains de ces aspects du suivi dont on ne parle souvent que maintenant. En fait, il y a eu beaucoup de campagnes et de sensibilisation.

L'autre aspect que je voudrais aborder est la question du manque de choix. Ce que nous constatons en fait, c'est que lorsque les gens ont le choix, ils ne veulent pas être autant suivis. Beaucoup d'entre vous ont peut-être lu dans les journaux le combat autour des mises à jour d'Apple concernant la vie privée, qui permettent maintenant aux gens d'aborder cet enjeu d'une manière différente. Au lieu de devoir refuser de participer, vous devez accepter d'être suivi. Ce que nous savons, jusqu'à présent, c'est qu'il semble que seuls 4 % des gens acceptent d'être suivis. Ça nous indique que tout un système est construit sur quelque chose que 96 % des utilisateurs d'Apple ne voulaient pas. Je pense que ça devrait nous faire réfléchir à la manière dont cette économie de l'attention a été construite.

Je terminerai par une dernière chose : faire ressortir deux mots qui, à mon avis, étaient implicites dans ce que Bob et Sam ont dit. La première est qu'il s'agit d'un problème écosystémique. Il englobe tous les différents noms que Bob a énumérés, ce qui rend la tâche vraiment difficile. Le deuxième aspect est qu'il s'agit en effet d'un problème mondial à bien des égards, ce qui le rend également très difficile, car si nous réfléchissons aux solutions nationales qui fonctionnent, nous sommes également confrontés à des plateformes mondiales. Évidemment, nous mentionnons souvent Facebook et Google, mais il existe aussi des plateformes comme TikTok, par exemple. Nous ne sommes pas non plus confrontés à une situation où toutes ces plateformes ont leur siège aux États-Unis. Certaines d'entre elles les ont en Chine et ailleurs. La façon dont nous résolvons les problèmes écosystémiques et mondiaux constitue de véritables défis que nous devons relever. Je pense que nous devons réunir des groupes interdisciplinaires comme celui-ci, mais aussi faire intervenir des voix, par exemple celles des pays du Sud, qui peuvent souvent nous dire quels sont les dommages causés par ces plateformes des années avant qu'elles n'arrivent sur les côtes d'Amérique du Nord ou d'Europe. Au plaisir de vous voir.

[L'image d'Owen remplit l'écran.]

Owen Ripley : Merci. Merci, Heidi, Sam, et Bob. J'ai déjà un certain nombre de questions, mais peut-être, Heidi, je vais reprendre le point concernant les utilisateurs d'iPhone. Je suis un utilisateur d'iPhone.

[On voit maintenant les quatre présentateurs.]

J'ai commencé à recevoir la notification que cette application veut te suivre. Voulez-vous l'autoriser ou non? Elle donne à l'utilisateur la possibilité de faire ce choix. Bob a commencé par parler de l'économie de l'attention. Que pensez-vous de l'effet d'entraînement de cette situation? Que commence-t-il à se passer pour le modèle si, tout à coup, vos données ne paient pas nécessairement pour le service que vous aviez l'habitude d'obtenir gratuitement?

Heidi Tworek : Oui. Je pense qu'il y a toute une série de questions qui se posent à ce sujet. La première question est de savoir quelle a été l'efficacité du microciblage par rapport à la publicité générale par catégorie? Ça vient en premier parce que les entreprises disent que c'est vraiment efficace. Certaines études universitaires indiquent qu'elle n'est pas beaucoup plus efficace que d'autres types de publicité.

[L'image de Heidi remplit l'écran.]

Je suppose que nous pourrions voir des réponses à ça. La seconde est que nous ne savons pas vraiment, en tant que personnes extérieures, quelle est l'efficacité de certaines de ces techniques publicitaires. Je pense que c'est un élément. Dans quelle mesure une entreprise peut-elle convaincre les annonceurs que le microciblage est génial et qu'il va augmenter le nombre de conversions? Dans quelle mesure ça n'est-il pas nécessairement vrai? Nous verrons bien comment ça se passe. L'autre aspect de cette affaire qui est vraiment crucial est la question de savoir dans quelle mesure le microciblage a pu ou non violer les lois sur la discrimination. Nous le savons grâce à des enquêtes menées, par exemple, par The Markup, qui est un média fantastique que je vous conseille de suivre si vous vous intéressez à ce genre de choses. Nous savons, grâce à The Markup, que de nombreux annonceurs, par exemple dans le domaine du logement sur Facebook, contrevenaient en fait aux directives du HUD, le département du logement et du développement urbain du gouvernement des États-Unis, sur le logement en utilisant les codes postaux comme indicateur de la race. C'est un autre aspect vraiment crucial de cette réflexion au Canada également. Dans quelle mesure le microciblage a-t-il été utilisé, peut-être pas intentionnellement, d'une manière qui est en fait discriminatoire et illégale? C'est une autre question qui se pose.

L'aspect final de tout ça est : comment résoudre toutes ces questions? Nous avons besoin d'une certaine transparence. Nous savons que les entreprises ne révèlent pas d'énormes quantités de données pour des raisons de secret de source, mais peut-être aussi parce qu'elles n'enquêtent pas elles-mêmes sur ces données — ce que j'ai appelé, et d'autres aussi, l'agnotologie, ou l'amour de l'ignorance. Les entreprises disent qu'elles vous suivent à la trace. Elles ont toutes sortes d'informations. Lorsque nous examinons les questions qu'elles étudient, nous savons qu'il y a certaines questions qu'elles n'étudient pas. Par exemple, il a été explicitement demandé à une personne travaillant pour YouTube de ne pas chercher à savoir si les algorithmes entraînaient les gens à se perdre dans les fils de la toile. La transparence est un moyen, par le biais d'organismes de réglementation, de commencer à résoudre certaines de ces questions, car je ne peux honnêtement pas vous donner une réponse directe sur ce que ces changements impliqueront.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Merci, Heidi. Bob ou Samantha, est-ce que l'un d'entre vous veut intervenir sur ce sujet?

Bob Fay : Tu commences, Sam.

Samantha Bradshaw : Bien sûr. Heidi, je pense que ce sont de superbes questions. Même lorsque nous réfléchissons aux réponses réglementaires à ces questions concernant le microciblage et l'imposition de limites et de restrictions à ce sujet. Lorsque nous pensons aux élections, nous pouvons obtenir des informations démographiques générales sur les gens. Ce type de publicité à grande échelle pourrait encore fonctionner dans le cadre du modèle économique. Lorsque nous en arrivons à mes intérêts très spécifiques, à savoir que j'aime le yoga et que je mange des rôties à l'avocat, et que ces facteurs me concernant sont intégrés dans la publicité que je vois.

[L'image de Samantha remplit l'écran.]

Je pense que c'est vraiment à ce moment-là que les gens commencent à être très mal à l'aise avec cette technologie. Il est très important de réfléchir de manière plus stratégique à la réglementation de la vie privée et d'aborder la question du microciblage. En tant que chercheur et universitaire dans ce domaine, j'appelle à la transparence, à la collecte de plus de données et à une meilleure compréhension de la façon dont les algorithmes adaptent, personnalisent ou orientent les gens vers certains contenus plutôt que d'autres. C'est une question très importante, car, comme vous l'avez dit, pour l'instant, nous ne savons pas vraiment. Nous ne pouvons pas réellement mesurer le véritable préjudice de ces technologies. Nous ne pouvons pas dissocier le problème technologique des autres problèmes que nous constatons au sein de la société et de nos écosystèmes d'information sans avoir accès à ce type de données qui sont conservées par les différentes plateformes.

L'une des principales questions est la suivante : certains utilisateurs sont-ils poussés vers du contenu plus extrême que d'autres? Nous ne le savons pas parce que nous ne pouvons pas vérifier les algorithmes d'un point de vue personnel, car ce que je vois sur ma chaîne YouTube sera différent de celui de tout le monde ici. Peut-être qu'en tant que personne, je serais plus susceptible d'être poussé dans un de ces terriers de lapin que d'autres. Nous n'avons aucun moyen de mesurer ça et d'examiner ces tendances à l'échelle de la société tout entière sans plus d'informations, plus de données et plus de transparence dans les plateformes.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Bob.

Bob : Je suis d'accord avec tout ce que Heidi et Samantha viennent de dire. Je pensais quand Heidi parlait.

[L'image de Bob remplit l'écran.]

J'ai travaillé sur un projet il y a 20 ans à l'OCDE, et il s'agissait de commencer par la question à laquelle on voulait répondre, puis de trouver les données. Il s'agissait de savoir comment créer des modèles statistiques pour déterminer qui va devenir un chômeur de longue durée avant que ça ne se produise, car il est extrêmement dommageable pour les individus et la société en général que des personnes deviennent des chômeurs de longue durée. Les États-Unis ont commencé à travailler dans ce domaine, ils ont appelé ça le profilage, et certaines des questions que nous avons abordées il y a 20 ans sont tout aussi pertinentes aujourd'hui. En ce qui concerne les modèles statistiques, vous ne pouviez pas utiliser l'âge, le sexe et la race, car cette démarche violerait la loi aux États-Unis. Tout ça semble bien, mais que faites-vous? Vous faites ce que Heidi avait mentionné. Vous trouvez des variables qui sont corrélées et c'est assez facile à trouver. Le niveau d'éducation vous en dira long.

[On voit maintenant les quatre présentateurs. Owen boit une gorgée dans une tasse et Heidi incline la tête.]

Je trouve qu'un grand nombre des questions que nous traitons aujourd'hui sont des questions qui se posent depuis longtemps, mais nous n'avons toujours pas trouvé de solution.

[L'image de Bob remplit l'écran.]

Il existe un projet très intéressant qui a été lancé par un organisme appelé The GovLab, en collaboration avec l'OCDE et d'autres organismes, et qui s'appelle l'Initiative des 100 questions. Il y a cinq secteurs différents. Quelles sont les questions auxquelles nous devons répondre? À partir de ces questions, quelles sont les données dont nous avons besoin? C'est de là que vient la transparence. Pour guider la transparence et les mesures également. Au CIGI, nous avons créé un réseau appelé Global Platform Governance Network, qui se penche actuellement sur ces questions. De nombreux collègues du gouvernement canadien participent à ce réseau. Il s'agit d'un réseau mondial de fonctionnaires, de législateurs et d'organismes de réglementation qui se réunissent pour discuter de ce que font les pays dans le domaine de la gouvernance des plateformes de médias sociaux, qui peut être très vaste. Lorsque nous avons entendu le type de questions posées dans ce forum, nous avons créé trois groupes de travail. Le premier concerne la transparence. Le deuxième concerne les mesures. Le troisième est de savoir comment les gouvernements font réellement de la recherche pour essayer de comprendre ces questions. Je peux en parler plus tard, mais je vais le signaler aux auditeurs aujourd'hui. Si les gens du gouvernement veulent participer, il y a de la place pour eux.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Merci. Merci, Bob, et chers collègues. Je rappelle aux personnes qui nous écoutent que vous pouvez proposer vos propres questions, si vous le souhaitez. L'icône d'une petite main dans le coin de votre écran vous permet d'insérer une question ou de voter pour une question existante. Juste pour vous le rappeler. Sam et Heidi, vous avez tous deux parlé de la nécessité d'une plus grande transparence dans cet espace, ainsi que de la réglementation de la vie privée. Du côté du gouvernement, je pense que l'une des critiques auxquelles nous sommes fréquemment confrontés est que le gouvernement a tendance à aborder les problèmes en fonction de ses structures organisationnelles existantes et de la place qu'il occupe dans son portefeuille. Ça reflète en partie la nature progressive de l'élaboration des politiques publiques. Elle reflète évidemment aussi les structures existantes. J'aimerais savoir si vous pensez qu'il existe un pays qui est sur la bonne voie pour traiter certaines de ces questions qui sont manifestement de nature plus horizontale et comment les gouvernements s'y prennent pour relier tous les points qui sont liés à cet enjeu.

Heidi Tworek : Je peux y aller en premier si tu veux. Je pense que c'est l'intérêt d'envisager la question de manière globale. Je ne suis pas sûr qu'un seul pays ait résolu le problème ou le résoudra jamais. Il s'agit plutôt de savoir comment l'aborder de manière à pouvoir faire face aux défis à venir.

[L'image de Heidi remplit l'écran.]

Un exemple de base est un endroit comme Taïwan qui a réellement un ministre du numérique. Ça vous aide déjà, au lieu d'avoir un portefeuille, il y a quelqu'un qui réfléchit vraiment à ces questions numériques dans toute une série d'endroits différents. La ministre du numérique, Audrey Tang — vous pouvez regarder une entrevue d'elle sur le site Web du CIGI — réfléchit vraiment à cette question à partir d'une multitude de points de vue différents, y compris son expérience personnelle dans la création et la réalisation de cartes transparentes et toutes sortes de choses. Je pense que la Corée du Sud est un autre endroit à examiner. Il y a certainement beaucoup de choses pour lesquelles ils se battent, comme les discours haineux, les abus misogynes, et la façon dont l'IA et les robots conversationnels peuvent se déchaîner et devenir très rapidement abusifs. Ce sont toutes des questions auxquelles la Corée du Sud est confrontée, mais aussi dans le contexte d'une société beaucoup plus numérisée. Je pense que ce que je veux dire, c'est qu'il n'y a pas un seul pays que je pourrais désigner comme ayant « résolu » ce problème. Nous en voyons certains qui ont créé de nouveaux portefeuilles et qui ont vraiment essayé de coordonner les différents ministères. C'est ce qui s'est produit lorsque des événements tels que la COVID-19 ont éclaté, car ils ont pu tirer parti de la connectivité numérique et diffuser rapidement des directives gouvernementales sur toute une série de canaux différents en travaillant ensemble, ce que la plupart des gouvernements européens et nord-américains ont franchement eu du mal à faire. Je pense qu'il y a beaucoup à apprendre des autres gouvernements.

[On voit maintenant les quatre présentateurs.]

Samantha Bradshaw : Je pense qu'il y a beaucoup à apprendre également en ce qui concerne les gouvernements qui ont introduit des politiques ou des mesures qui n'ont pas fonctionné ou qui ont eu beaucoup de conséquences négatives ou involontaires.

[L'image de Samantha remplit l'écran.]

En particulier, l'élaboration de nouvelles lois qui ne s'attaquent qu'au contenu et qui traitent une grande partie des problèmes de l'économie de l'attention à ce niveau très visible du contenu plutôt que d'examiner certaines des structures systémiques qui expliquent pourquoi ce contenu devient viral en premier lieu, sont des solutions qui, à mon avis, ne fonctionnent pas très bien et ont beaucoup de conséquences involontaires. Nous voyons souvent des lois être introduites pour cibler la désinformation, les fausses nouvelles ou les complots liés à la COVID-19, mais être ensuite utilisées comme un outil pour réprimer la liberté d'expression, pour réprimer toute opposition politique et pour attaquer la liberté de la presse. Il y a ce revers de la médaille de la crise que nous observons actuellement avec les médias sociaux et l'économie de l'attention et beaucoup de ces questions autour du contenu, de la démocratie et de la liberté d'expression, où les gouvernements en profitent pour renforcer la censure et la répression sur leurs propres populations.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Je suppose que ça soulève la question suivante : quel est le rôle approprié du gouvernement dans cette conversation? Que pensez-vous, Sam, ou d'autres, de la question suivante : quel est le rôle approprié de la réglementation, le cas échéant, dans cet espace? Si ce n'est pas le rôle du gouvernement, alors qu'est-ce que c'est? Des intéressés?

Samantha Bradshaw : Tout tourne autour de cette question que tout le monde se pose. Je pourrais tenter ma chance et ensuite j'aimerais entendre les pensées de Bob et de Heidi.

[L'image de Samantha remplit l'écran.]

Pour moi, tout d'abord, le rôle du gouvernement en matière de promotion d'une plus grande transparence, comme nous l'avons évoqué précédemment, et d'un meilleur accès aux données est crucial, car nous ne pouvons pas élaborer de bonnes politiques sans de bonnes données. Si nous ne comprenons pas le problème, toute solution que nous proposerons pourrait avoir de nombreuses conséquences inattendues. Ça pourrait avoir un effet négatif bien plus important que de ne rien faire si nous ne comprenons pas vraiment le problème et si nous ne comprenons pas dans quelle mesure ces plateformes sont nuisibles. Pour moi, je pense que c'est la première étape de ce que les gouvernements peuvent faire. Ensuite, je pense qu'il y a un tas de solutions faciles en matière de réponses politiques. Nous avons déjà parlé de la vie privée et des données, de l'imposition de limites, de restrictions et d'exigences quant au type de données recueillies et utilisées sur les personnes, et de la mise en place d'un cadre permettant aux utilisateurs de mieux contrôler et de mieux choisir leurs informations. Je pense que l'une des solutions les plus faciles dans le problème systémique général est de commencer à contrôler les données des utilisateurs.

[On voit maintenant les quatre présentateurs.]

J'aimerais entendre Bob ou Heidi, sur des questions concernant l'antitrust. C'est un domaine que je connais moins, mais je sais qu'il y a beaucoup d'élaboration de politiques et de réflexion dans le domaine de la concurrence. Je vais m'arrêter là et vous laisser prendre le relais.

[Samantha émet un petit rire.]

Owen Ripley : Il y a toujours cet équilibre entre : est-ce que la réponse à la machine, c'est plus de machines? Nous le constatons même avec Apple qui déploie sa fonctionnalité permettant d'arrêter le suivi. C'est une réponse technologique à ce modèle économique que vous avez commenté. Bob, vous avez parlé de la possibilité d'accéder à vos paramètres Google et de contrôler vos paramètres de confidentialité. Nous sommes tous invités à vérifier notre vie privée et à passer par cette étape. Vous voyez ces entreprises technologiques déployer des réponses technologiques à certaines de ces choses. Je pense que c'est la question : est-ce la réponse à cette question ou y a-t-il plus?

Samantha Bradshaw : Oh, pardon. Owen, j'allais justement dire que c'est un bon point aussi. Une grande partie de la réglementation et des réponses se concentre sur la technologie plutôt que sur d'autres tendances. Si nous réfléchissons à la relation entre la désinformation, les élections et la démocratie, par exemple, les gens ont tendance à se concentrer uniquement sur les entreprises de médias sociaux.

[L'image de Samantha remplit l'écran.]

Nous ne nous concentrons pas sur le fait que la polarisation au sein de la société au sens large a augmenté avant même que nous ayons des téléphones intelligents ou des ordinateurs. La baisse de confiance envers les gouvernements et les institutions s'est également développée avant les ordinateurs et l'Internet. Le déclin des partis politiques en général s'est produit dans le monde entier. Il s'agit de tendances systémiques plus importantes au sein de nos sociétés qui n'ont pas nécessairement de liens avec la technologie. La technologie peut certainement renforcer ou exacerber certains de ces problèmes, mais il existe aussi des problèmes préexistants. Si nous relevons le défi des médias sociaux ou celui de l'économie de l'attention, ces autres problèmes ne vont pas simplement disparaître. En tant qu'organismes de réglementation, nous pouvons réfléchir plus largement à des solutions qui ne se limitent pas à la technologie.

[On voit maintenant les quatre présentateurs.]

Bob Fay : Oui. J'aimerais renforcer ce point. Il semble qu'il y ait une tendance à se concentrer sur la technologie et, bien sûr, étant donné que le nom de mon établissement contient le mot gouvernance, nous pensons vraiment que les solutions se trouvent au niveau de la gouvernance.

[L'image de Bob remplit l'écran.]

C'est plus facile à dire qu'à faire. Prenez l'un des points soulevés par Sam sur les solutions faciles et la vie privée. Je suis d'accord, mais si vous regardez le projet de loi C-11 qui est en cours, il semble être au point mort. Il se trouve quelque part dans le processus parlementaire. L'une des questions était : pourquoi n'a-t-elle pas été axée sur les droits de l'homme? Pourquoi le Canada ne met-il pas l'accent sur les droits de l'homme? Alors que c'est ce que l'UE a fait comme base de sa législation. Il est essentiel que nous nous en occupions. La voie à suivre reste ouverte au débat. L'une des questions que nous avons soulevées concernant la nature horizontale de ces technologies est qu'elles recoupent tous les domaines et que les gouvernements ne sont pas conçus pour ça. Ils sont conçus pour travailler verticalement. Bien sûr, nous savons qu'il existe des mécanismes mis en place au sein du gouvernement canadien et ailleurs pour obtenir cette coopération horizontale, mais la façon dont elle se diffuse dans l'ensemble de la fonction publique n'est pas claire. J'ai fait l'expérience de ces domaines et il est très difficile d'établir des priorités et de repérer la concurrence. Dans notre accord commercial avec les États-Unis, nous avons des flux de données ouverts. Les économistes diront que les flux de données ouvertes sont ce dont vous avez besoin pour exploiter les avantages sociaux qui peuvent découler des données agrégées. Vous voulez vraiment imposer des restrictions minimales aux flux de données, qu'ils soient internes ou transfrontaliers, sous réserve de certaines protections. Nous savons également, pour en revenir à ce que j'ai dit plus tôt, que plus nous autorisons la circulation transfrontalière des données, plus le pouvoir de monopole de certaines entreprises ayant leur siège aux États-Unis augmente. Il y a des compromis. Qui doit faire ces compromis? Comment les faire? Il s'agit d'une question extrêmement difficile et d'un défi pour pratiquement tous les domaines de la politique.

[On voit maintenant les quatre présentateurs.]

Heidi Tworek : Oui. Je vais vous faire part de quelques réflexions supplémentaires. Je suis d'accord avec tout ça. Après avoir étudié les technologies précédentes et la manière dont elles étaient également utilisées pour fomenter des problèmes politiques, économiques et culturels, nous devrions nous garder de faire de ce problème un simple problème technologique. Je voudrais dire deux ou trois choses.

[L'image de Heidi remplit l'écran.]

L'une d'elles est que, comme le soulignent les universitaires, nous avons parfois perdu l'imagination de ce à quoi l'Internet pourrait ressembler et de ce que pourrait être un Internet public. Par exemple, on a évoqué l'idée des bibliothèques à la fin du 19e siècle. C'est une forme de démocratisation de la connaissance qui était publique. Pourtant, il semblait presque inimaginable que le gouvernement fasse ça au début du 21e siècle, ce qui est assez étrange. Joan Donovan, du Centre Shorenstein, a déclaré : « Pourquoi ne pas embaucher 10 000 bibliothécaires pour aider à gérer l'Internet, à titre d'expérience de réflexion sur la façon dont l'Internet pourrait être différent? ». Ethan Zuckerman, qui travaille à l'Université du Massachusetts à Amherst, a écrit un nouveau livre dans lequel il réfléchit à des choses comme les infrastructures publiques en ligne. Je dirais que c'est une chose potentielle à laquelle le gouvernement devrait au moins penser. Pourquoi sommes-nous si limités dans notre imagination à penser à la manière de réglementer les entreprises qui existent déjà au lieu de penser que c'est le travail des universitaires, de faire une réflexion générale sur ce que pourrait être un autre Internet? La vérité est qu'il y a des entreprises comme ça, malgré tous leurs défauts. Wikipédia est une imagination de ce qu'est cet Internet. Pourtant, nous ne nous sommes retrouvés qu'avec un seul Wikipédia et pas plusieurs. Dans quelle mesure est-ce que ça découle de l'infrastructure politique existante? Existe-t-il une autre infrastructure politique qui pourrait conduire à davantage de Wikipédia plutôt qu'à davantage de Facebook? Je pense que c'est une question que nous devrions au moins prendre très au sérieux. C'est une grosse question. Ce n'est pas une question facile, mais je pense que c'est une question importante pour ne pas brider notre imagination.

Aussi parce que, bien sûr, les entreprises ont des lobbyistes, y compris aux États-Unis. Lorsque les entreprises font pression pour obtenir une réglementation, nous devons toujours nous assurer que nous sommes un peu sceptiques quant aux raisons pour lesquelles elles font pression pour un type particulier de réglementation et pas pour un autre. Par exemple, faire du lobbying pour un certain type de législation antitrust ou sur la concurrence ne va-t-il pas involontairement verrouiller les grands acteurs actuels? Nous avons en fait des exemples historiques de cette situation. Je vais vous en donner un concrètement, juste pour souligner que nous devons réfléchir très soigneusement à certaines de ces choses et apporter ces exemples historiques. L'Associated Press était évidemment l'une des principales agences de presse des États-Unis dans la première moitié du 20e siècle, mais il s'agissait en fait d'un système de franchise fermé auquel seuls certains autres journaux étaient autorisés à adhérer. D'autres journaux ont dit que c'était anticoncurrentiel et que nous devions avoir accès à ce marché. Les autres agences de presse ne sont pas aussi bonnes. Ça a finalement conduit le gouvernement américain à lancer une procédure antitrust contre l'Associated Press. L'Associated Press perd en 1945 et doit ouvrir sa franchise à tous. Vous pensez que c'est une bonne nouvelle au sujet de l'antitrust, mais ironiquement, ce qui s'est passé, c'est que toutes les autres agences de presse ont fait faillite en l'espace de 30 ans. La United Press n'existait pas. L'INS n'existait pas parce que tout le monde affluait vers l'AP. Il s'agit simplement de dire que nous devons être un peu prudents avec l'antitrust pour supposer que ça va toujours conduire à plus de concurrence sur le marché. Nous trouvons en fait quelques exemples historiques où le contraire se produit, malheureusement.

Il y a quelques solutions faciles auxquelles nous pouvons penser du point de vue du gouvernement. L'une d'entre elles est la mise en place d'une procédure officielle pour la modération du contenu. J'ai suggéré l'exemple du cours en ligne pour essayer d'éviter le problème décrit par Sam, à savoir que la législation sur le contenu a conduit à la suppression de la parole. Et si nous créions une procédure officielle en ligne autour de la réglementation du contenu? Une deuxième chose à laquelle il faut penser est le rôle du gouvernement dans l'intégration de la société civile. Si les principes de Christchurch ont fait couler beaucoup d'encre, une chose incroyablement remarquable à leur sujet était qu'ils ne concernaient que le gouvernement et les plateformes. Quel était le rôle de la société civile au départ? Il a changé au cours des deux dernières années. Je pense que nous pouvons considérer que le rôle du gouvernement est aussi d'élever et d'amener des voix marginalisées et d'autres voix de la société civile qui méritent d'être entendues par les plateformes et qui méritent d'avoir un rôle à jouer dans le développement de ces plateformes. Le rôle du gouvernement ne doit pas toujours être la réglementation. Il peut également s'agir d'élever les voix et de veiller à ce qu'elles aient leur mot à dire et que nous suivions le principe selon lequel rien ne nous concerne sans nous. Réfléchir au rôle du gouvernement, de manière très large, c'est ce que je préconise.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Il y a peut-être des gens qui nous écoutent et tout ça est très intéressant, mais ces idées et ces problèmes semblent très importants. Mon algorithme de recommandation m'a conseillé. Derrière nos écrans de fumée sur Netflix, et je l'ai regardé. Je suis vraiment inquiet à ce sujet. Au niveau des citoyens, quelles sont les mesures concrètes que les gens peuvent prendre pour mieux s'informer ou exercer un meilleur contrôle sur ces questions? Des idées sur ce sujet?

Bob Fay : Je me demande si je ne pourrais pas d'abord répondre à cette question, mais revenir à la gouvernance. L'un des domaines auxquels le gouvernement canadien participe activement est l'établissement de normes par le biais du Conseil canadien des normes, mais il y a aussi quelque chose appelé le Conseil stratégique des DPI, qui est le Conseil du Trésor.

[L'image de Bob remplit l'écran.]

Le Conseil stratégique des DPI réunit les secteurs public et privé pour travailler sur les normes, et les normes sont assez intéressantes parce que ce sont des choses auxquelles nous ne pensons pas, mais qui régissent la plupart des aspects de notre vie à bien des égards. Il y a des normes sur la technologie, mais il y a aussi des normes qui permettent aux technologies de se parler entre elles. Notre iPhone peut parler aux téléphones Android et autres. Les normes peuvent également être utilisées pour mettre en place des valeurs, ainsi que pour ancrer nos valeurs. C'est extrêmement important lorsqu'il s'agit de technologie, car nous voulons nous assurer que nos valeurs sont respectées et qu'elles peuvent être intégrées dans les normes. Le gouvernement canadien participe en fait à cette démarche. Ce n'est pas seulement le gouvernement. C'est le secteur privé, et toute une série d'institutions du secteur privé qui peuvent participer. Nous ne voulons pas exclure le secteur privé. Je pense qu'il y a une tendance à dire que nous ne pouvons pas parler aux plateformes à cause des intérêts particuliers. Je pense que l'une des questions que nous avons trouvées dans notre réseau mondial de gouvernance des plateformes est de savoir à qui vous voulez parler dans les plateformes? Est-ce que ce sont les décideurs politiques ou les techniciens qui les composent? Ils peuvent avoir des points de vue très différents sur, par exemple, les utilisations de la technologie qu'ils développent.

Le gouvernement a obtenu sa directive sur l'utilisation des systèmes automatisés qui est révolutionnaire à bien des égards. Il y a le questionnaire d'évaluation des répercussions des algorithmes, qui, à mon avis, est une très bonne étape dans la création de mécanismes d'utilisation responsable de la technologie et de lieux où les gens peuvent revenir et dire : « Je ne comprends pas cette décision prise par le gouvernement. Quel genre de recours ai-je? » Beaucoup de choses se produisent actuellement. Une fois encore, il s'agit de savoir comment coordonner tout ça et il y a le niveau national. Comme Heidi l'a dit, il y a toute la perspective internationale sur ces choses parce qu'il y a tout un tas de choses qui se passent à l'extérieur du Canada et qui influencent directement le Canada, que nous le voulions ou non. Le RGPD, le règlement général sur la protection des données, et l'UE est un exemple classique que les gens désignent comme une norme sur le contrôle et l'utilisation des données personnelles. Dans un pays comme le Canada, si nos entreprises veulent faire des affaires au Royaume-Uni et dans l'UE et utiliser des données personnelles, elles doivent s'y conformer. Sinon, ils ne peuvent pas faire des affaires dans l'UE. Tout d'un coup, au Canada, nous devons suivre ces règles, que ça nous plaise ou non, et elles deviennent une norme de facto, alors que nous n'avons pas participé à l'élaboration du RGPD. Je pense que mon point de vue est que nous devrions avoir une certaine contribution à ce sujet. Comment faites-vous? Au CIGI, nous avons promu le concept de ce que nous appelons le Conseil de stabilité numérique, qui est essentiellement un mécanisme permettant aux organismes de réglementation, aux décideurs et aux organismes de normalisation de se réunir à l'échelle mondiale et d'avoir ces discussions importantes.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Merci. Merci, Bob. Sam, je sais que vous avez beaucoup réfléchi à cette question — le rôle des citoyens dans ce domaine. Avez-vous des idées ou des conseils à donner aux personnes qui ont du mal à comprendre comment un internaute unique s'intègre dans l'équation?

[L'image de Samantha remplit l'écran.]

Samantha Bradshaw : Oui. Je pense qu'il y a plusieurs choses que les gens peuvent faire pour contribuer à améliorer l'intégrité de notre écosystème d'information et aussi pour exercer un plus grand contrôle et une plus grande autonomie sur leurs propres données. Tout d'abord, vérifiez tous les paramètres de confidentialité de vos applications et assurez-vous qu'ils correspondent à ce que vous souhaitez. Je pense que c'est difficile en ce moment parce qu'il n'y a pas forcément beaucoup de choix. J'ai personnellement quitté la plateforme Facebook récemment et WhatsApp. D'autres solutions commencent à voir le jour, qui sont un peu plus respectueuses de la vie privée lorsqu'il s'agit de données. Il faut faire quelques recherches, voir s'il existe d'autres solutions pour vous, puis décider si la contrepartie de ce que vous obtenez avec vos données vaut la peine ou non de conserver ces services.

En ce qui concerne la désinformation et la diffusion d'autre contenu préjudiciable en ligne, je pense qu'en tant que citoyens, nous avons tous une responsabilité et un rôle à jouer dans nos démocraties et dans la création d'un environnement propice au débat public et à la recherche et à la négociation du consensus dont nous avons besoin pour que notre démocratie fonctionne. Bien sûr, c'est incroyablement difficile dans notre ère de la post-vérité, où personne ne peut même se mettre d'accord sur les faits de base. Il est donc très difficile pour les utilisateurs de tous les jours d'avoir le sentiment d'avoir un certain contrôle sans se mettre en colère en voyant tout le contenu négatif que nous voyons tous les jours en ligne et toute la colère, toute l'indignation, toute la peur, et toutes les rumeurs et conspirations qui deviennent constamment virales. Une grande partie de la recherche dans ce domaine commence à montrer : il suffit de ne pas partager de contenu et de ne pas partager ce type de contenu. C'est la meilleure chose que les utilisateurs puissent faire d'un point de vue individuel. Elle semble avoir le plus d'effet en matière de réduction de la diffusion et de la nocivité de ce type de contenu et, globalement, c'est la chose la plus efficace que nous puissions faire.

Je n'aime pas trop mettre l'accent sur l'individu et sur ce que nous devrions faire en tant que personne, parce qu'il y a d'énormes structures systémiques en place qui créent les structures avec lesquelles et au sein desquelles nous avons ces interactions, et qui amplifient déjà beaucoup de contenu négatif. Les utilisateurs ont bien sûr un rôle à jouer, mais les plateformes de médias sociaux elles-mêmes ont un rôle très important à jouer pour remédier à un grand nombre de préjudices dont nous commençons à nous rendre compte qu'ils proviennent de ces technologies. Une grande partie des réponses de la plateforme ont consisté à étiqueter les informations. Pour moi, ça ne fait que renvoyer à l'utilisateur la responsabilité de lire les informations qu'il trouve en ligne, au lieu que les plateformes assument la responsabilité de ces systèmes qui poussent constamment les utilisateurs vers des positions extrêmes ou les poussent à partager des conspirations et de la désinformation. Réfléchir de manière plus stratégique à ce que les plateformes pourraient faire sur le plan systémique est vraiment essentiel ici et constitue une partie importante de la solution au problème qui élimine le citoyen.

[On voit maintenant les quatre présentateurs.]

Heidi Tworek : Si je peux juste ajouter quelque chose très rapidement, c'est pour souligner ce point sur l'utilisateur individuel par rapport au système, et je vais donner un exemple concret pour montrer à quel point c'est difficile. Dans l'UE, il y a eu toute une affaire autour des navigateurs qui devaient être préinstallés sur les téléphones intelligents.

[L'image de Heidi remplit l'écran.]

Parce que, bien sûr, nous avons tous tendance à utiliser ce qui est le plus simple. Si Google Chrome est préinstallé sur votre Android, vous l'utiliserez, mais il existe d'autres navigateurs plus respectueux de la vie privée, comme Ecosia et DuckDuckGo. Cette affaire portait sur la question de savoir dans quelle mesure les paramètres par défaut devaient offrir plus de choix. Je pense que c'est une chose à laquelle nous pouvons penser en tant qu'utilisateurs. Il existe presque toujours des services de rechange — pas toujours, mais souvent même avec les navigateurs. Vous devez avoir un choix qui soit relativement simple pour les gens. Je pense que l'exemple de la clause de participation/non-participation d'Apple nous montre que s'il existe un rôle pour fournir ces choix, les gens font souvent le choix le plus orienté vers la vie privée. Il s'agit en grande partie d'une question de facilité d'utilisation. Il est très difficile de quitter, par exemple, WhatsApp, car une partie de votre famille n'est peut-être que sur WhatsApp et les persuader de passer à autre chose peut être très difficile, à moins que vous n'ayez, par exemple, imposé l'interopérabilité entre l'un et l'autre. En d'autres termes, je pense qu'il existe un certain équilibre entre le rôle du gouvernement, qui consiste à définir des règles du jeu équitables en matière de choix par défaut, et le rôle du gouvernement dans ces questions systémiques qui ont des répercussions sur les utilisateurs individuels.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Oui. Je pense que c'est une des questions auxquelles Heidi fait allusion. Cette conversation se concentre beaucoup sur les externalités négatives de ces plateformes, mais il y a aussi toutes les externalités positives. Nombre de ces entreprises sont très douées pour concevoir des produits et des services qui nous aident à être plus efficaces et plus performants. À cet égard, j'allais demander si la COVID n'a pas été, à certains égards, une boîte de Petri en matière d'interventions sur le plan des politiques numériques, ainsi que de produits et services numériques. Nous avons vu que l'économie, le gouvernement et les réponses de la santé publique ont tous dû passer au numérique. Je pense, Heidi, que tu as réfléchi à tout ça. Qu'avons-nous appris, grâce à la COVID, sur l'économie de l'attention et sur la manière dont les gouvernements ont navigué dans cet espace de manière efficace ou non?

Heidi Tworek : L'année dernière, j'ai réalisé une étude sur les six premiers mois de communication de la COVID dans neuf démocraties sur cinq continents différents.

[L'image de Heidi remplit l'écran.]

Nous avons constaté que certains gouvernements, comme le Sénégal, la Corée du Sud, Taïwan et la Nouvelle-Zélande, ont utilisé tous les canaux à leur disposition de manière incroyablement efficace pour rencontrer leurs citoyens là où ils se trouvent et diffuser rapidement les directives gouvernementales. Nous avons également constaté que plus les directives gouvernementales étaient diffusées rapidement, moins il y avait de problèmes de théories du complot et de désinformation. Cette constatation a également été confirmée par d'autres études de mégadonnées qui ont montré que plus les gouvernements publiaient rapidement des directives claires, moins les gens cherchaient en ligne des remèdes de charlatans comme l'argent ou l'eau de Javel. Nous pouvons constater que des gouvernements suffisamment avisés pour utiliser tous ces canaux de différentes manières ont produit des résultats vraiment positifs. Ça va de l'utilisation de systèmes de messagerie textuelle à l'utilisation de robots conversationnels, en passant par l'assurance que, lorsque vous publiez sur les médias sociaux, vous faites appel à des personnes qui sont vraiment importantes dans la société civile, c'est-à-dire, au Sénégal, des imams et des prêtres. On pourrait voir toutes sortes de façons positives dont les gouvernements pourraient utiliser ça pour informer les gens. Je ne veux pas dire par là qu'il s'agit de faire de la propagande, comme vendre des chaussures Nike ou autre chose, mais de l'utiliser réellement pour adapter ces informations afin de répondre aux besoins des gens là où ils se trouvent, d'une manière avant-gardiste. Je pense que nous pouvons en tirer des leçons très utiles.

Au Canada, nous avons également vu des endroits, comme la Colombie-Britannique, utiliser rarement des choses comme les médias sociaux, et avoir quand même une réponse relativement efficace. Ça soulève la question suivante : dans quelle mesure l'opération aurait-elle pu être plus efficace si des éléments tels que les médias sociaux et les systèmes de messagerie textuelle d'urgence avaient été utilisés à leur pleine efficacité, comme nous l'avons vu dans d'autres endroits? Je pense qu'il s'agit essentiellement d'un plaidoyer pour dire qu'il existe des moyens d'utiliser ces outils de manière responsable pour informer les citoyens, les rencontrer là où ils se trouvent et, enfin, les utiliser comme des outils de communication bidirectionnelle. Je pense que l'une des choses que nous avons vues dans des endroits comme la Corée du Sud ou Taïwan, c'est qu'ils ne l'utilisaient pas seulement comme un système de diffusion, mais qu'ils essayaient aussi de comprendre les questions des gens. Que devons-nous préciser? Comment pouvons-nous améliorer ce genre de choses? Il y a en fait plus d'une conversation à double sens. Ce sont là quelques-unes des choses pour lesquelles on peut utiliser les médias sociaux, malgré les nombreux inconvénients potentiels qui en découlent.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Bob ou Sam, des idées issues de la COVID où vous vous êtes assis?

Samantha Bradshaw : Je pense que la pandémie de coronavirus a vraiment mis en lumière certains des véritables défis que pose la modération du contenu sur les médias sociaux.

[L'image de Samantha remplit l'écran.]

En particulier, la façon dont les groupes anti-vaccin ou les récits hostiles aux vaccins se répandent en ligne et les limites du pouvoir des plateformes pour modérer ces questions. Dans le cadre de mon travail à Stanford, nous avons un projet sur la virilité qui suit, en temps réel, un grand nombre de théories du complot sur les vaccins qui se répandent sur les médias sociaux. Nous travaillons en partenariat avec les plateformes et les agences de santé publique pour combattre une grande partie de cette rhétorique en ligne, en temps réel. Nous constatons que les plateformes ont du mal à prendre des mesures contre le contenu qui n'est pas falsifiable. Il est très facile pour les plateformes d'étiqueter ou de retirer un contenu explicitement faux, mais dès que les gens commencent à dire « j'ai entendu un ami » ou « l'ami d'un de mes amis a vécu ça », tout d'un coup, le contenu devient impossible à falsifier et il est beaucoup plus difficile de prendre des mesures contre lui. Poser des questions sur le vaccin est un moyen astucieux de susciter beaucoup d'hésitation et de scepticisme quant à sa sécurité sans pour autant faire une déclaration falsifiable. La manière dont les plateformes prennent des mesures contre ce type de contenu soulève de nombreuses questions intéressantes et difficiles en matière de liberté d'expression. Pour moi, ce que nous avons appris de la pandémie de coronavirus, c'est le véritable défi que représente le traitement de ces questions au niveau du contenu.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : J'allais te le demander plus tôt, Sam. Dans vos remarques liminaires, vous avez fait allusion à l'article scientifique d'il y a quelques années qui parlait de la rapidité avec laquelle le mensonge se répand par rapport à la vérité.

[Samantha émet un petit rire.]

Les humains sont câblés pour être plus attirés par ce type de contenu et ça joue dans ce modèle. D'une part, l'Internet est un réseau distribué. C'est en partie ce qui rend l'Internet si génial. Je pense que le défi est le suivant : comment se prémunir contre ces résultats? Nous avons vu, après les événements survenus dans la capitale américaine le 6 janvier, que les plateformes de médias sociaux sont capables de prendre certaines de ces décisions difficiles et de modérer certaines de ces pratiques. Dans le même temps, vous avez assisté à la migration des utilisateurs vers différentes plateformes. Ça soulève alors la question du problème du « jeu de la taupe ». Je voulais vous demander, et je m'adresse à vous trois, s'il existe une plateforme que vous avez vue ou une étude de cas d'une plateforme connectée différemment, qui est contre-culturelle en matière de connexion et qui présente cette autre possibilité d'une autre chose possible? L'un d'entre vous a-t-il vu quelque chose comme ça?

Samantha Bradshaw : Je pense que Wikipédia est un exemple de plateforme différente avec un modèle différent qui fonctionne très bien. Bien sûr, il y a encore des défis à relever, mais en matière de structure et de gouvernance, elle est très efficace pour empêcher la désinformation et les fausses informations d'envahir la plateforme.

[L'image de Samantha remplit l'écran.]

Reddit est un autre modèle intéressant. Reddit a mis en place des directives de haut niveau concernant ce qui peut se passer sur la plateforme, notamment l'interdiction de l'incitation à la violence et des discours de haine. Chaque forum a son propre ensemble de modérateurs communautaires qui ont des règles supplémentaires et modèrent eux-mêmes le contenu, en fonction du forum, du sujet et des personnes concernées. C'est un autre modèle très intéressant dont on ne parle pas beaucoup. Lorsque nous réfléchissons à la gouvernance des plateformes de médias sociaux, nous avons tendance à nous concentrer sur Google/YouTube, Facebook et Twitter — les trois grands —, mais il existe d'autres modèles qui fonctionnent de différentes manières, qui sont plus efficaces et qui offrent un meilleur contrôle aux utilisateurs, mais qui ont aussi leurs propres compromis.

[On voit maintenant les quatre présentateurs.]

Bob Fay : Je voudrais juste ajouter à ce que Sam a dit que ce dont elle a discuté essentiellement, c'est de la gouvernance. Ce n'est pas la technologie. C'était la gouvernance de la technologie. Je pense que c'est vraiment ce qui ressort des exemples qu'elle a donnés.

[L'image de Bob remplit l'écran.]

Je pense qu'on se laisse prendre par la technologie parce que c'est cool. Il peut faire toutes ces choses intéressantes. La gouvernance de cette technologie est entièrement sous notre contrôle. Je pense que nous l'oublions parfois, et parfois pour de bonnes raisons, car la technologie évolue rapidement et les mécanismes de gouvernance ont tendance à évoluer assez lentement. Je pense qu'il existe des moyens d'accélérer les choses, et ils sont utilisés dans certains secteurs de l'économie. Nous pouvons créer des structures pour permettre aux organismes de réglementation de tester de nouvelles choses. Il est utilisé dans le secteur financier. Au Royaume-Uni, il est proposé de mettre en place des bacs à sable électroniques, comme ils les appellent, dans le cadre de leur devoir de diligence qu'ils vont mettre en place. Je pense qu'il y a beaucoup de choses qui peuvent être faites. Je pense que l'accent doit être mis sur la gouvernance.

[L'image de Heidi remplit l'écran.]

Heidi Tworek : J'allais citer exactement les deux mêmes exemples que Sam, mais aussi dire que nous devons être prudents dans nos attentes vis-à-vis des plateformes. Quelque chose comme Wikipédia reproduit à bien des égards bon nombre des problèmes que nous avons dans la société — une dominance excessive en matière de rédacteurs masculins. Il y a beaucoup d'autres articles qui concernent les hommes. Les articles sur les femmes sont rejetés, y compris, et c'est très célèbre, celui de la femme professeure agrégée qui a reçu un prix Nobel, mais dont la page Wikipédia a été rejetée à plusieurs reprises. Je pense que c'est un bon exemple de la façon dont vous pouvez avoir d'excellentes structures de gouvernance, mais vous ne pouvez pas nécessairement vous attendre à ce qu'une société Internet soit à l'abri d'autres forces sociales et culturelles. Je sais que, bien sûr, Wikipédia travaille très dur pour changer cette situation de toutes sortes de façons différentes. J'ai deux ou trois choses à dire.

D'abord, je pense que ça nous montre à quel point l'échelle rend difficile la résolution de ces problèmes. L'une des raisons pour lesquelles Reddit maîtrise encore vaguement la situation est qu'ils ne s'occupent que de la langue anglaise. Où Facebook se met-il en difficulté? Lorsque vous commencez à ouvrir dans des endroits où il n'y a pas de modérateurs de contenu dans une langue, que ce soit au Myanmar ou en Éthiopie, où ils recrutent quelques personnes en amharique, mais personne, pour autant que je sache, ne travaille en Oromo, qui est l'une des principales langues parlées en Éthiopie. Je pense qu'une autre chose à garder à l'esprit est qu'il existe parfois un lien complexe entre l'évolutivité et la capacité à gouverner. Souvent, nous constatons que les plateformes commencent à perdre le contrôle lorsqu'elles prennent de l'ampleur, car elles ne disposent pas de l'infrastructure nécessaire pour répondre à ces questions. Nous venons d'en parler sous l'angle du contenu, mais vous pouvez aussi penser à la fraude et au Turc mécanique sur Amazon, comme s'il s'agissait de n'importe lequel de ces éléments. Dès que l'on passe à une très grande échelle, on commence à éprouver de nombreux problèmes, potentiellement inattendus. Je pense que c'est une autre façon de voir les choses. La première : dans quelle mesure les plateformes peuvent-elles échapper aux forces sociales dominantes ou les annuler? Il s'avère que c'est difficile. Deuxièmement : que fait l'évolutivité à toutes ces questions?

[On voit maintenant les quatre présentateurs.]

Bob Fay : Vous avez commencé, Heidi, en disant qu'il s'agit de vieilles peurs intégrées dans les nouvelles technologies. Je pense que je suis d'accord avec ça, mais je pense que ce problème d'échelle est vraiment le grand défi. La puissance de ces entreprises. Les craintes peuvent être anciennes. Nous n'avons jamais été à un moment où un message ou un contenu peut avoir une diffusion aussi puissante en quelques heures. Je pense que c'est vraiment le défi. En tant qu'historien, y a-t-il eu d'autres moments dans l'histoire où vous avez vu une réponse de politique publique dont nous pouvons nous inspirer? Je pense que vous avez tous les trois fait allusion à l'antitrust. Est-ce la réponse que vous donneriez si vous cherchiez un exemple historique de la façon dont vous traitez le problème de l'échelle?

Heidi Tworek : En fonction du problème que nous voulons résoudre, il y a une histoire différente dont nous pouvons tirer des enseignements d'une certaine manière — une histoire utilisable. Je tiens à corriger une chose, à savoir l'idée que c'est la première fois que les choses vont aussi vite. Nous n'avons jamais abordé ce sujet auparavant, car d'une manière étrange, les choses étaient beaucoup plus rapides au début du 20e siècle. J'en ai un exemple dans le livre que j'ai derrière moi, News from Germany, qui est la déclaration totalement fausse selon laquelle le Kaiser d'Allemagne a abdiqué le 9 novembre 1918. J'ai retracé, minute par minute, le temps qu'il a fallu pour que l'annonce soit diffusée dans les rues. Ça a pris de dix à quinze minutes. Les journaux imprimaient des suppléments. Il passerait en télégraphie. En fait, les villes étaient très étroitement liées entre elles. En réalité, d'une manière étrange parce que vous aviez des journalistes qui couraient dans la rue en criant des choses comme « extra, extra, lisez tout ça ». C'est ce qui s'est passé. Ce n'était pas si loin de quelques minutes sur Twitter. Vous ne pouviez pas vraiment y échapper si vous étiez assis dans un bâtiment et que vous entendiez quelqu'un crier à l'extérieur. Bizarrement, on ne pouvait pas s'échapper d'une manière qui permette d'éteindre son téléphone. Même ces échelles de temps accélérées sont moins claires, et je pense que ça montre aussi que ces choses sont disjointes. Ce que je décris, c'est un monde où c'était vrai pour les personnes vivant dans les villes. Ce n'était absolument pas vrai pour les personnes vivant en dehors des grandes villes. Aujourd'hui, de nombreuses personnes sont connectées à l'Internet, mais beaucoup d'entre elles — des milliards — sont encore déconnectées ou ne sont connectées que par l'intermédiaire de quelque chose comme Facebook. Je pense que ça nous apprend à être un peu prudents dans ces hypothèses et à réfléchir à des choses comme l'infrastructure physique de qui est réellement connecté et qui ne l'est pas. Je pense qu'une chose dont nous pouvons nous inspirer, c'est de réfléchir à la question de l'infrastructure, qui est aussi une question cruciale au Canada et qui est souvent débattue.

Le fait de ne pas être connecté à ce réseau entraîne également des conséquences néfastes, notamment en ce qui concerne l'endroit où l'on peut vivre et ce que l'on peut faire dans la vie. J'aimerais souligner quelques points historiques : il y a eu des moments dans le passé où les décideurs publics ont réalisé que le désastre les obligeait à travailler ensemble et à créer des technologies qui soient réellement interopérables. L'exemple classique est celui de la catastrophe du Titanic. Lorsque la catastrophe du Titanic s'est produite, il existait deux types d'opérateurs sans fil. L'un d'entre eux venait de Marconi, qui voulait créer un monopole en proposant des appareils Marconi qui ne parleraient qu'aux appareils Marconi. Il y avait aussi d'autres appareils sans fil. Lorsque le radiotélégraphiste du Titanic envoyait des signaux de détresse, ceux-ci ne pouvaient être entendus que par certains des navires environnants, et non par tous. Potentiellement, plus de personnes auraient pu être sauvées si ce sans fil avait été plus ouvert. En fait, une conférence radio organisée juste après avec des décideurs politiques a imposé l'interopérabilité. C'est pourquoi il y a eu des appareils sans fil, puis des postes de radio qui pouvaient réellement se parler. Je pense que nous avons eu quelques moments de Titanic, et nous ne nous sommes pas encore réunis. J'espère que nous n'aurons pas à vivre un autre moment de Titanic avant d'investir dans les réseaux de gouvernance de la plateforme mondiale que Bob et le CIGI dirigent.

[L'image d'Owen remplit l'écran.]

Owen Ripley : Nous parlons souvent de ces plateformes comme de la nouvelle place publique — la place numérique. Nous avons une question ici sur la reconnaissance du fait qu'en fin de compte, ce sont tous des fournisseurs de services privés pour la plupart.

[On voit maintenant les quatre présentateurs.]

De toute évidence, c'est la tension qui, selon moi, est au cœur de la conversation d'aujourd'hui. J'ai voulu consacrer un peu de temps, alors que nous approchons de la fin, à reconnaître que nous aurons des personnes de différents secteurs d'activité qui écouteront les responsables de programme, les employés administratifs, et certains qui ne travailleront pas directement dans ce domaine. Pour un fonctionnaire qui ne participe pas directement au travail politique sur certaines de ces questions, mais qui réfléchit à son secteur d'activité, avez-vous des idées sur la façon dont il devrait aborder cette place numérique et réfléchir à ces questions?

Bob Fay : Je ne fais que regarder les questions. Il y a de très bonnes questions ici, et l'une d'entre elles concerne les accords de consentement des utilisateurs.

[L'image de Bob remplit l'écran. Pendant qu'il parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Robert Fay, Centre pour l'innovation dans la gouvernance internationale ».]

Quelqu'un les a-t-il déjà lus? Combien en lisez-vous par jour? Le rôle des normes est clairement de proposer un modèle normalisé que les entreprises doivent suivre. Il se peut que le gouvernement intervienne et le rende obligatoire ou que vous travailliez avec le secteur privé. Il y a de nombreuses façons de les mettre en place, mais nous avons besoin de quelque chose de plus normalisé. L'une des choses auxquelles j'ai réfléchi est que l'on se concentre actuellement sur la réglementation des résultats des modèles commerciaux et beaucoup moins sur la réglementation du modèle commercial lui-même. Réglementer le modèle d'entreprise comprendrait l'utilisation d'outils de politique de concurrence, par exemple. Le danger d'utiliser uniquement la politique de concurrence est et certains des exemples qui pourraient être soulevés comme le procès de l'UE contre Microsoft et les États-Unis également. Ces choses prennent des années et des années à être résolues, et au moment où elles le sont, toutes les mauvaises choses sont déjà arrivées. Il existe des outils qui peuvent être utilisés par les autorités chargées de la concurrence — des mesures provisoires et d'autres choses de ce genre — qui peuvent être utilisés pour aider à résoudre ce problème. Nous sommes dans un monde où nous devons faire les deux. Nous devons réglementer les modèles d'entreprise plus que nous ne l'avons fait en utilisant un ensemble d'outils. Nous devons également penser à ces conséquences néfastes. En pensant aux résultats néfastes, ne pas détruire toutes les bonnes choses qui en découlent, aussi. Il s'agit en fait de tous les domaines d'action du gouvernement. Il existe des approches différentes au sein de ce pays — comment l'Australie a décidé de traiter les actualités par rapport à la façon dont les États-Unis pensent à traiter les actualités. Nous verrons où le Canada se situe sur ce point. Il existe des exemples dont nous pouvons nous inspirer pour prendre nos propres décisions. Je sais que vous le faites déjà, mais c'est juste pour que le grand public sache qu'ils existent et qu'un endroit comme CIGI est l'endroit où nous pouvons apporter une valeur ajoutée parce que c'est la nature de notre travail. La société civile peut apporter son aide. Comme Heidi l'a dit, nous voulons faire participer la société civile à ces discussions, car elle apportera des perspectives particulières dont nous ne sommes peut-être pas conscients, étant donné la nature de notre travail.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Sam.

[L'image de Samantha remplit l'écran. Pendant qu'elle parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Samantha Bradshaw, chercheuse au CIGI ».]

Samantha Bradshaw : Owen, pour en revenir à votre question, et à l'une des questions posées ici sur les plateformes en ligne jouant certains des rôles plus traditionnels de l'infrastructure comme les médiathèques et la réflexion sur cette tension entre les espaces publics et privés. L'une des façons de penser à ce sujet se résume à un débat que nous avons depuis longtemps et que les spécialistes de l'Internet — la communauté des politiques de l'Internet au sens large — ont soulevé. Il s'agit de savoir si les plateformes de médias sociaux doivent être considérées comme des fournisseurs d'informations, dans la mesure où elles jouent un rôle important dans la sélection de certains types de contenus d'informations. Si ce contenu n'est pas juste, équilibré, égal ou représentatif, ils peuvent alors faire face à une sanction, qu'il s'agisse d'amendes ou autres.

Traiter les plateformes plus comme un fournisseur d'informations; il y a beaucoup de difficultés à encadrer les plateformes comme de simples fournisseurs d'informations, car elles font plus que ça. Traditionnellement, on appelait ça la responsabilité de l'intermédiaire. Les plateformes sont responsables du contenu qui apparaît sur leur plateforme. Par exemple, le fonctionnement de la recherche Google consiste à parcourir l'Internet et à tout organiser pour nous, de sorte que lorsque nous effectuons des recherches, il nous propose un contenu axé sur les recherches précédentes, sur des mots clés, sur les différentes pages Web, etc. Si la recherche Google faisait apparaître des contenus haineux ou préjudiciables en tête de liste lorsqu'un utilisateur effectue une recherche et si la société était tenue responsable de ces contenus, la recherche Google, telle qu'elle existe aujourd'hui, n'existerait pas, car elle ne serait pas en mesure d'explorer et d'archiver l'ensemble du Web sans que des contenus créés par d'autres personnes et susceptibles d'être préjudiciables n'apparaissent accidentellement dans les résultats de recherche. Il existe toute une industrie qui tente de jouer avec les algorithmes des moteurs de recherche pour faire apparaître certains contenus en tête des recherches Google. Cette responsabilité d'intermédiaire est très importante pour les plateformes, car le contenu qu'elles partagent est généré par les utilisateurs. Le fait de les tenir responsables pourrait avoir d'autres conséquences inattendues. Les avantages que nous, en tant qu'utilisateurs, tirons de la plateforme en matière de fonctionnement d'un moteur de recherche génial. En réfléchissant à cette tension entre infrastructure publique et privée, je pense qu'il faut éloigner les débats de ces questions autour de la responsabilité des intermédiaires et les orienter vers ce dont Heidi parlait plus tôt, à savoir imaginer un autre type d'infrastructure publique, qu'il s'agisse d'un Internet géré par des bibliothécaires ou de réfléchir à un tout nouveau modèle en général et à ce qu'il pourrait être. Je pense que c'est là que nous avons besoin de créativité et d'ingéniosité et que nous devons démêler un peu plus le privé du public.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Je suis curieux. Si nous considérons le gouvernement comme un fournisseur de services, et évidemment, les gouvernements sont de grands fournisseurs de services — j'inclurais les municipalités et les provinces dans cette catégorie également. Je suppose que ma question pour cette table est la suivante : le gouvernement fait-il un bon travail en montrant l'exemple? Pour ce qui est de la transparence des données utilisées dans le processus décisionnel. Y a-t-il des exemples auxquels vous pouvez penser, et encore une fois, il n'est pas nécessaire que ce soit à l'échelle fédérale, mais y a-t-il des niveaux de gouvernement au Canada qui font un bon travail en joignant le geste à la parole et en respectant certains des principes que vous avez énoncés? Si nous les considérons comme un fournisseur de services?

Heidi Tworek : C'est une question fascinante. De même, en pensant à la COVID, où une grande partie du débat a porté sur le degré de transparence à accorder aux affaires en matière de COVID.

[L'image de Heidi remplit l'écran. Pendant qu'elle parle, une carte titre mauve apparaît en fondu dans le coin inférieur gauche pendant quelques secondes. Il y est inscrit « Heidi Tworek, Université de la Colombie Britannique, chercheuse principale au CIGI ».]

Combien de tableaux de bord? Nous avons également vu le revers de la transparence lorsque des personnes ont été accusées d'être « atteintes de la COVID ». Il y a eu un cas particulièrement terrible dans les provinces de l'Atlantique où ça a également donné lieu à des abus racisés parce qu'un médecin noir a été accusé d'être une personne qui avait introduit la COVID-19, même s'il s'est avéré qu'il n'était pas atteint. Je pense qu'il faut garder à l'esprit que, lorsque nous faisons ça, la transparence peut être extrêmement importante, mais il y a aussi des inconvénients potentiels qui peuvent être très problématiques en matière de stigmatisation. Je pense qu'il sera crucial pour les gouvernements d'aller de l'avant de comprendre et de travailler sur ce déséquilibre. Parfois, ça concerne le volume. Comment présenter les totaux? Ça nous ramène à la remarque de Bob qui disait qu'il fallait y penser il y a 20 ans. Je pense que nous avons beaucoup à apprendre de la façon dont les différentes provinces abordent la question et des bases de données que les gens voulaient, parce que dans certains cas, la collecte de certains types de données a vraiment renforcé la façon dont nous avons compris que les Canadiens racisés étaient les plus touchés par la COVID-19. Parfois, ça n'a pas conduit aux changements de politique nécessaires pour mettre en œuvre les choses. Ça me ramène à l'excellent article que Sun-ha Hong a écrit pour le CIGI sur les raisons pour lesquelles la transparence ne suffit pas.

Ce n'est pas parce que vous êtes transparent et que vous savez quelque chose que vous devez être capable de faire quelque chose. Ce n'est pas parce que nous savons quelque chose que nous mettons en œuvre les initiatives politiques dont vous avez besoin pour résoudre le problème. Je pense que c'est une autre chose que nous devons garder à l'esprit. Je voudrais juste ajouter une petite chose à propos de la question que tu as posée auparavant, Owen, à savoir pourquoi devrais-je m'inquiéter si je n'ai pas de portefeuille Internet? Vous ne savez jamais quand votre portefeuille va devenir le point chaud. Quel responsable de la santé publique, si vous le lui aviez demandé il y a trois ans, aurait pensé qu'il serait au centre de menaces de mort en ligne, d'abus et d'éloges dans certains cas, mais aussi de toutes ces autres choses — des théories du complot. Ils ne pouvaient pas le prévoir. Pourtant, ils se sont retrouvés au centre de cette tempête de toutes sortes de façons. Je pense que c'est une des raisons pour lesquelles il est important pour quiconque, quel que soit son portefeuille, de comprendre cette dynamique. Vous pouvez penser à la façon dont nous diffusons l'information. Comment cela fonctionne-t-il? Que ferions-nous si nous étions confrontés et attirés au centre d'une de ces tempêtes? Ce sont quelques-unes des raisons pour lesquelles je préconise qu'aucun portefeuille de politiques ne soit exempt d'être potentiellement celui qui sera repris la semaine prochaine d'une manière ou d'une autre.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Une idée sur l'une ou l'autre de ces questions, Bob?

Bob Fay : Je suis tout à fait d'accord avec Heidi, et ça ne fait que renforcer l'idée que vous devez adopter une approche multidisciplinaire pour répondre à ces questions de gouvernance vraiment délicates. Je suis un économiste. Nous avons un historien. Je ne suis pas sûr des antécédents de chacun, mais il faut vraiment que les voix collectives s'unissent, car c'est la seule façon de vraiment comprendre comment ces technologies se diffusent. Ensuite, nous pourrons définir la transparence, les paramètres et autres éléments essentiels à la gouvernance. C'est très délicat.

[L'image de Bob remplit l'écran.]

Il n'y a plus de silos. Tout est interconnecté. Ça crée des défis.

Je voudrais juste soulever un autre point aussi, parce que je pense que beaucoup des questions autour de la COVID sont vraiment venues. De nombreuses questions ont été posées sur les données et sur la manière dont elles pouvaient être utilisées à bon escient. Par exemple, nous pouvons recueillir des données qui peuvent vraiment nous aider à comprendre comment la pandémie se propage ou se répercute, selon la communauté, dans différentes communautés. Nous savons qu'elles peuvent aussi être utilisées pour nuire. Nous disposons d'une agence de statistiques qui est bien informée et qui sait comment faire tout ça. Nous avons au Canada une base de données, appelée Statistique Canada, qui sait comment gérer des informations vraiment sensibles. Je pense que les gens peuvent être surpris par le niveau de détail que l'agence de statistiques connaît sur nous, et ce, pour une bonne raison. Il s'agit d'une contribution à la création de bonnes politiques. On parle beaucoup du rôle de la confiance envers les données, et il existe différentes structures qui peuvent être utilisées pour gérer les données. Ils ont tous leurs forces et leurs faiblesses, mais nous avons l'expertise nécessaire dans ce pays pour le faire. Nous avons des données ouvertes. Comme je l'ai dit, nous avons la directive sur ces systèmes automatisés — l'outil d'évaluation de l'incidence des algorithmes. Il y a tout un tas de choses qui sont faites, que nos fonctionnaires ont trouvées et, sans doute grâce à une bonne consultation, qui sont utilisées. Nous devons juste trouver comment en faire plus.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Je sais que 90 minutes semblent toujours être un long moment, mais c'est passé rapidement. Il ne nous reste que quelques minutes. Je vais juste voir s'il y a quelque chose d'autre que vous voulez mettre sur la table en une minute ou moins et que vous n'avez pas eu la chance de soulever ou de mettre sur la table. Commençons par vous, Heidi. Des réflexions?

Heidi Tworek : Je pense qu'une chose que nous pouvons faire pour recadrer notre état d'esprit est de nous rappeler que la Silicon Valley et d'autres entreprises, y compris TikTok, ont pour devise d'aller vite et de casser les choses.

[L'image de Heidi remplit l'écran.]

Le gouvernement est le contraire. Une façon d'y réfléchir est de se demander quel est le rôle du gouvernement dans la mise en place de choses comme les principes de précaution. L'exemple de Bob concernant l'incidence des répercussions algorithmiques est l'un de ceux-là. Les entreprises de médias sociaux ne font pas ça. Ils font des tests A/B sur des nations entières. Les conséquences sont dramatiques si vous êtes un média indépendant en Serbie et que vous vous réveillez soudainement un jour et que personne ne regarde votre page Facebook parce que Facebook a décidé de faire un test A/B sur vous. Je pense que c'est une façon de penser au rôle du gouvernement. Où doit-il mettre en place des principes de précaution pour les entreprises qui ont évolué rapidement et qui ont potentiellement cassé beaucoup de choses?

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Sam.

Samantha Bradshaw : Je pense que j'ajouterai à ça qu'une plus grande responsabilité procédurale est nécessaire, ainsi que des règles concernant les règles, afin de mettre en place ces barrages routiers et ces barrières, de sorte que les entreprises ne disposent pas d'une autoroute ouverte pour conduire, aller vite et casser des choses.

[L'image de Samantha remplit l'écran.]

S'il y a plus de responsabilité procédurale et de règles sur le genre de choses qui peuvent être incluses dans les modalités des accords de service, plus de règles sur les façons dont les algorithmes sont audités, et l'instillation de certains principes autour de la technologie, de la conception et de l'utilisation. Je pense qu'il s'agit là d'une autre bonne façon de ralentir l'évolution rapide de la technologie, afin d'éviter que nous ne nous développions continuellement à grande échelle sans aucune protection ou réflexion pour les utilisateurs que la technologie affectera.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Bob.

Bob Fay : Nous ne sommes pas seuls dans cette situation. Tous les pays s'attaquent à ces problèmes et, fait encourageant, les États-Unis, où se trouve le siège de ces plateformes, en font autant.

[L'image de Bob remplit l'écran.]

Nous avons nos problèmes nationaux, et ensuite, nous avons superposé la dimension internationale. Le Canada a l'occasion de jouer un rôle de premier plan dans ce domaine. Je pense que nous sommes connus comme un pays aux valeurs fortes, et ces valeurs devraient déterminer la façon dont la technologie est utilisée. Il y a une occasion formidable pour notre service public de continuer le bon travail qu'ils font et de l'apporter à l'échelle internationale là où il est vraiment nécessaire.

[On voit maintenant les quatre présentateurs.]

Owen Ripley : Je pense que c'est une bonne note pour terminer la conversation, Bob, sur les valeurs qui guident la politique. Ce fut un véritable plaisir pour moi d'animer cette discussion. J'aimerais remercier les trois panélistes, Heidi, Sam et Bob, d'avoir pris le temps de le faire malgré leur emploi du temps chargé. Je sais que c'est toujours un peu bizarre dans ces appels Zoom. Nous nous voyons les uns les autres et nous ne voyons pas la multitude qui existe, mais je vais parler en leur nom et je vous remercie.

[L'image d'Owen remplit l'écran. Une carte titre mauve apparaît en fondu dans le coin inférieur gauche de l'écran pendant quelques secondes. Il y est inscrit « Owen Ripley, Patrimoine canadien ».]

Pour ceux qui nous écoutent, j'attire votre attention sur nos autres événements qui peuvent vous intéresser. L'Académie du numérique de l'École de la fonction publique du Canada organisera un événement sur le thème « Accueillir la perturbation numérique » ce jeudi 27 mai, si ça vous intéresse. Je vous encourage à le consulter et à vous inscrire. Le dernier événement de la série « Nouvelle économie » aura lieu le jeudi 10 juin. Il s'agira de revenir sur les thèmes clés de la série, de faire une sorte de synthèse et de réfléchir à leurs conséquences pour le service public. À ce propos, je pense que c'est plus ou moins l'après-midi d'un océan à l'autre maintenant. Je vous souhaite à tous un bon après-midi. Merci beaucoup de nous avoir écoutés. Au revoir.

[Le logo blanc animé de l'École de la fonction publique du Canada se dessine sur un fond violet. Les pages tournent, et le logo se ferme comme un livre. Une feuille d'érable apparaît au milieu du livre, qui ressemble aussi à un drapeau en dessous duquel se trouvent des lignes courbes. Le mot-symbole du gouvernement du Canada apparaît : le mot « Canada » avec un petit drapeau canadien flottant au-dessus du dernier « a ». L'écran devient noir.]


Date de modification :