Sélection de la langue

Recherche

Série L'intelligence artificielle est à nos portes : L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger (DDN2-V21)

Description

Cet enregistrement d'événement porte sur la façon dont l'intelligence artificielle et la modélisation prédictive peuvent être utilisées pour renseigner les gouvernements lorsqu'ils doivent réagir à des situations complexes et qui évoluent rapidement à l'échelle mondiale.

(Consultez la transcription pour le contenu en français.)

Durée : 01:30:42
Publié : 6 septembre 2022
Type : Vidéo

Événement : Série L'intelligence artificielle est à nos portes : L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger


Lecture en cours

Série L'intelligence artificielle est à nos portes : L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger

Transcription | Visionner sur YouTube

Transcription

Transcription : Série L'intelligence artificielle est à nos portes : L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger

INTRODUCTION

[00:00:04 Le logo de l'École de la fonction publique du Canada (EFPC) apparaît à l'écran à côté d'un texte indiquant « Webdiffusion ».]

[00:00:12 Martin Green est assis dans un bureau face à sa caméra Web.]

Martin Green: Bonjour à tous. Bienvenue à l'École de la fonction publique du Canada. Je m'appelle Martin Green. Je suis le secrétaire adjoint du Cabinet, Évaluation du renseignement au Bureau du Conseil privé, et c'est moi qui animerai l'événement d'aujourd'hui intitulé L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger. Je suis heureux d'être ici avec vous aujourd'hui et je souhaite la bienvenue à tous ceux et celles qui ont choisi de participer à cet événement.

Avant d'aller plus loin, j'aimerais reconnaître, puisque je vous parle depuis Ottawa, que je me trouve sur le territoire traditionnel non cédé du peuple anichinabé. L'événement d'aujourd'hui est le septième volet de la série L'intelligence artificielle est à nos portes, que l'école propose en partenariat avec l'Institut Schwartz Reisman pour la technologie et la société, un centre de recherche et de solutions de l'Université de Toronto ayant pour mission de veiller à ce que les technologies comme l'intelligence artificielle (IA) soient sûres, responsables et exploitées pour le bien de tous.

Jusqu'à présent, cette série d'événements a permis d'aborder des sujets comme les bases de l'intelligence artificielle, comment et quand l'utiliser au sein du gouvernement, les répercussions économiques de l'intelligence artificielle, les questions liées aux biais, à l'équité et à la transparence, ainsi que l'effort mondial de réglementation de l'intelligence artificielle. Aujourd'hui, nous nous intéresserons au rôle de l'intelligence artificielle et de l'apprentissage automatique en matière de politique étrangère et de renseignement.

L'événement d'aujourd'hui sera structuré de la façon suivante. Tout d'abord, nous regarderons une conférence de Janice Stein, professeure à l'École Munk des affaires internationales et des politiques publiques, qui parlera des possibilités d'utilisation de l'IA et de l'apprentissage automatique pour éclairer la prise de décisions en matière de politique étrangère. Après la conférence, Janice se joindra à moi en direct, ainsi qu'à notre autre panéliste invité, Jon Lindsay, de l'École Sam Nunn des affaires internationales de l'Institut de technologie de la Géorgie, pour une discussion plus approfondie sur la question de l'IA et du renseignement étranger. Enfin, nous aurons un peu de temps vers la fin de la présentation pour répondre aux questions du public, alors n'hésitez pas à envoyer vos questions à n'importe quel moment au cours de l'activité. Vous n'avez qu'à cliquer sur le bouton « Lever la main » dans le coin supérieur droit de votre écran et à saisir votre question.

Nous surveillerons la boîte de réception tout au long de l'activité.

Avant de présenter la conférence, je vous rappelle qu'une traduction simultanée est disponible pour les participants qui se joignent à la webdiffusion. Pour utiliser le service d'interprétation simultanée en français, veuillez suivre les instructions fournies dans le courriel de rappel, qui comprend un numéro de conférence qui vous permettra d'assister à l'événement dans la langue de votre choix. Sans plus tarder, place à la conférence.

[Une image contenant le texte « Série L'INTELLIGENCE ARTIFICIELLE EST À NOS PORTES » apparaît. Un texte indiquant « L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger » apparaît. Janice Stein, professeure de sciences politiques à l'Université de Toronto et directrice fondatrice de l'École Munk des affaires internationales et des politiques publiques, se tient à côté d'une photo de morceaux de casse-tête réunis en cercle.]

Conférence de Janice Stein :

Le renseignement est essentiel pour prendre de meilleures décisions stratégiques. Il l'a toujours été.

[Un texte apparaît sur la photo et indique : « Comment l'IA peut-elle améliorer la prise de décisions en matière de politique étrangère? »]

Aujourd'hui, je veux parler de la façon dont l'IA peut améliorer le renseignement et contribuer à réduire la probabilité que les décideurs soient surpris et prennent, de ce fait, de mauvaises décisions stratégiques.

[Une photo de plusieurs épingles noires entourant une épingle brune apparaît.]

Qu'est-ce que le renseignement?

[Un texte apparaît sur la photo et indique : « Les estimations du renseignement sont des prévisions sur l'avenir. »]

Les estimations du renseignement sont des prévisions sur l'avenir. Il s'agit de prévisions sur ce que les gens vont faire ou ce qu'un virus va faire.

Les analystes du renseignement utilisent des informations sur le passé pour faire ces prévisions sur l'avenir, qui aident les décideurs à prendre des décisions lorsqu'ils ont un choix difficile à faire entre diverses options.

[Une photo montre de nombreuses flèches blanches pointant dans différentes directions.]

Or, il y a encore 100 ans, tous les renseignements étaient exclusivement d'origine humaine. Les espions sont aussi vieux que le monde. Ils renvoyaient des renseignements secrets sur les capacités ou les intentions de leurs adversaires...

[Un texte apparaît sur la photo et indique : « Les prévisions découlent de renseignements issus de sources multiples. »]

...et les analystes rassemblaient les renseignements qu'ils obtenaient de sources multiples et faisaient des prévisions sur le comportement futur probable de leurs adversaires.

[Une photo montre plusieurs cases de messagerie instantanée.]

Le fait que leurs prévisions soient parfois justes et parfois fausses en dit peu sur leurs capacités d'analyse...

[Un texte apparaît sur la photo et indique : « Les prévisions sont toujours, au mieux, des estimations établies selon divers degrés de probabilité. »]

...puisque les renseignements sont toujours incomplets et les prévisions sont toujours, au mieux, des estimations établies selon divers degrés de probabilité.

[Une photo montre plusieurs personnes tenant des morceaux de casse-tête autour d'un casse-tête incomplet.]

Au fil du temps, nous avons appris beaucoup de choses sur la façon dont les humains prennent des décisions, et voilà que je vais vous surprendre.

[Un texte apparaît sur la photo et indique : « Les humains ont des capacités cognitives limitées et utilisent des modèles comme raccourcis. » Un texte apparaît sur la même photo et indique : « Par conséquent, notre capacité à faire des prévisions est sujette aux erreurs systématiques. »]

Les données démontrent de façon concluante que les humains ont des capacités cognitives limitées. Chacun d'entre nous, dans une certaine mesure, utilise des schémas cognitifs comme raccourcis pour économiser de l'énergie et réduire la complexité de notre environnement. Par conséquent, nous commettons des erreurs, en particulier lorsque nous faisons des prévisions. Nous voyons souvent les modèles que nous nous attendons à voir.

Nous avons donc appris que notre capacité à faire des prévisions est sujette aux erreurs systématiques, et non aux erreurs aléatoires.

[Une photo montre des marches blanches menant au sommet d'une flèche devant un mur bleu. Un texte apparaît sur la photo et indique : « Alors, comment pouvons-nous améliorer notre capacité à faire des prévisions? » Un texte apparaît sur la même photo et indique : « Nous pouvons nous appuyer sur de meilleures données. »]

Alors, comment pouvons-nous améliorer notre capacité à faire des prévisions? Eh bien, nous avons besoin d'aide. La première étape importante pour améliorer les prévisions est de s'appuyer sur de meilleures données. Au cours des dernières décennies, nous avons mis au point deux méthodes différentes pour améliorer les prévisions. La première méthode existe depuis plusieurs dizaines d'années.

[Une photo montre des formes géométriques rouges, bleues, jaunes et tridimensionnelles. Un texte apparaît sur la photo et indique : « Modélisation ».]

Que faisons-nous? Nous construisons des modèles qui établissent clairement l'hypothèse que nous utilisons pour prévoir ces résultats, puis nous comparons les modèles aux résultats du passé et aux données dont nous disposons actuellement.

[Une photo montre des cubes de couleurs différentes. Le texte suivant apparaît sur la photo : « Nous pouvons "entraîner" les modèles en variant les hypothèses pour voir de quelle façon les résultats attendus changent. » Un texte apparaît sur la même photo et indique : « Les modélisations sont très utiles pour prévoir des événements rares et complexes. »]

La véritable utilité des modèles réside, entre autres, dans le fait que nous pouvons les entraîner. Nous pouvons varier les hypothèses et voir de quelle façon un changement dans celles-ci modifiera le résultat attendu.

La modélisation est donc très utile lorsqu'il s'agit d'essayer de prévoir des événements qui présentent deux caractéristiques, à savoir la rareté et la complexité, ce qui est souvent le cas en politique mondiale. Je reviendrai sur la modélisation lorsque je parlerai des défis liés à la tentative de prévoir...

[Une photo montre des soldats en Afghanistan et le texte qui l'accompagne indique : « Kaboul, Afghanistan (2021) ».]

...la chute de Kaboul aux mains des talibans au cours de l'été 2021. Presque personne n'a vu juste, même s'il s'agit certainement d'un événement à la fois complexe et peu commun. Comment pourrions-nous faire mieux la prochaine fois?

[Une photo montre des lumières disposées en forme de cerveau.]

Un deuxième outil destiné à améliorer les prévisions est...

[Le texte suivant apparaît sur la photo : « Intelligence artificielle ».]

...l'intelligence artificielle. Les systèmes d'IA peuvent être entraînés à déceler des modèles intégrés dans de très grandes quantités de données qui arrivent très rapidement de multiples capteurs et de nombreuses sources. Et notre monde ressemble de plus en plus à cela, constellé de capteurs et s'appuyant sur une multitude de sources.

Certains modèles sont intégrés dans les grandes quantités de données qui affluent aujourd'hui vers les analystes du renseignement, mais ces décideurs humains ont peu de chances de les découvrir seuls. L'intelligence artificielle peut s'avérer une aide précieuse à cet égard.

[La photo d'un circuit imprimé apparaît. Le texte sur la photo indique : « L'intelligence artificielle peut être entraînée à déceler des modèles dans de grands ensembles de données et ses prévisions peuvent être vérifiées pour déterminer le taux d'erreur. »]

L'intelligence artificielle peut donc être entraînée à partir de ces très grands ensembles de données. Ses prévisions sont ensuite validées par rapport à un autre ensemble de données – et voici ce qui est vraiment intéressant. Ces prévisions peuvent être évaluées par rapport à de nouvelles données afin que les analystes puissent établir le taux d'erreur. C'est vraiment la promesse de l'IA : améliorer le renseignement. L'IA peut générer des prévisions qui peuvent aider les décideurs à prendre de meilleures décisions qu'ils le feraient sans aide.

[Une photo de la Terre apparaît et le texte qui l'accompagne indique : « Comment pourrions-nous utiliser l'IA dans le domaine de la politique mondiale? »]

Comment pouvons-nous utiliser l'IA dans le domaine de la politique mondiale? Les possibilités d'utilisation sont très nombreuses. Permettez-moi de vous parler rapidement de six d'entre elles, bien qu'il ne s'agisse que de six parmi les centaines auxquelles je pourrais penser.

[Une photo montre le sommet d'un globe rouge.]

Tout d'abord, l'IA peut faciliter...

[Un texte apparaît sur la photo et indique : « Analyse des communications vocales. »]

...l'analyse des modèles contenus dans les énormes ensembles de données de communications vocales que les organismes de renseignement recueillent régulièrement auprès de personnes à l'étranger. Ces modèles peuvent être très utiles pour prévoir ce que les adversaires sont susceptibles de faire.

[Une photo montre un code informatique sur un écran. Le texte suivant apparaît sur la photo : « Analyse des métadonnées ».]

L'analyse des métadonnées est la deuxième possibilité d'utilisation. Les métadonnées indiquant qui parle à qui peuvent être utiles même si nous n'avons pas accès au contenu de la conversation. Ce type d'analyse, réalisée au moyen d'un système d'IA, permettrait de repérer des réseaux que les analystes ne pourraient pas déceler. Ce genre d'analyse est si puissant que, dans les démocraties, des mesures de protection ont été mises en place relativement à la collecte et à l'analyse de ce type de données, car l'analyse de leurs schémas révèle énormément de choses.

[Une photo montre des piles de pièces de monnaie dont la forme rappelle celle des continents. Le texte suivant apparaît sur la photo : « Analyse des opérations financières ».]

Voici un troisième domaine dans lequel l'IA peut être utile.

Elle peut faciliter l'analyse de grands volumes de flux financiers transfrontaliers afin de suivre la trace des fonds destinés aux réseaux criminels et terroristes. Suivre l'argent est l'un des moyens les plus efficaces de repérer les réseaux de rançongiciels et de prévoir les activités illicites des réseaux criminels et des trafiquants de drogue.

[Une photo montre une route et trois épingles rouges le long de celle-ci. Le texte suivant apparaît sur la photo : « Analyse des déplacements des personnes ».]

Le quatrième domaine est l'analyse des données satellitaires dans le but de suivre les déplacements des personnes qui traversent les frontières afin d'améliorer les prévisions relatives à la structure des mouvements de migration.

[Une photo montre un téléphone intelligent placé à côté d'une série d'icônes sur une carte du monde. Le texte suivant apparaît sur la photo : « Analyse des données Web ».]

Une autre utilisation ayant donné de bons résultats est l'analyse des données Web et des recherches sur Google au moyen d'un système d'IA dans le but de prévoir les éclosions de maladies virales et la demande de conseils en matière de soins de santé. Si un tel outil avait pu être utilisé, la trajectoire de la pandémie aurait pu être bien différente.

 [Une photo montre des avions sur la piste d'atterrissage d'un aéroport. Le texte suivant apparaît sur la photo : « Analyse des réseaux de transport ».]

Enfin, l'analyse des réseaux de transport sur la terre, en mer et dans les airs, toujours au moyen de l'IA, permettrait d'améliorer les prévisions de perturbations sévères des chaînes d'approvisionnement.

Nous avons vu à quel point ces ruptures dans les chaînes d'approvisionnement peuvent perturber les activités.

[La photo d'un chemin bleu apparaît et le texte indique : « Quel défi pose l'utilisation de l'IA dans le but d'établir des prévisions? » Un texte apparaît sur la même photo et indique : « Nous avons besoin de grands ensembles de données précises. »]

Alors, quel est le grand défi que pose l'utilisation de l'IA et de grands ensembles de données pour traiter toutes ces grandes questions qui concernent nos ennemis dans le monde?

Nous avons besoin de grands ensembles de données précises. Il s'agit d'un travail inachevé, mais nous constatons des améliorations très rapides.

[Une photo montre un œil et le texte indique : « Bien qu'il y ait des risques, les avantages à utiliser l'IA pour améliorer les prévisions sont importants. »]

Quand j'y réfléchis un peu, je constate qu'il y a bien sûr des risques, mais les avantages à utiliser l'IA pour améliorer les prévisions dans l'analyse de renseignements sont importants. Je les évalue par rapport à ce que les analystes trouveraient s'ils n'en disposaient pas.

[Une photo montre plusieurs escaliers blancs. Un texte apparaît sur la photo et indique : « Les ensembles de données refléteront les préjugés des personnes qui les créent. »] Un texte apparaît sur la même photo et indique : « Si les analystes ne sont pas conscients de leurs préjugés, leurs prévisions les reproduiront. »]

Maintenant, parlons un instant du risque de préjudice.

Nous savons tous que les ensembles de données reflètent les préjugés des personnes qui conçoivent les algorithmes d'apprentissage de l'IA ou même les ensembles de données.

Si les analystes ne sont pas conscients de ces préjugés, ces prévisions ne feront que les reproduire et nous disposons déjà...

[Une photo de la première page de Machine Bias par Julia Angwin, Jeff Larson, Surya Mattu et Lauren Kirchner, ProPublica, apparaît. Le texte indique : « Un logiciel est utilisé partout au pays pour prévoir qui seront les futurs criminels. Et il est discriminatoire à l'égard des Noirs. »]

...de nombreuses preuves concernant les préjugés raciaux qui ont été intégrés dans les systèmes d'IA ayant été créés pour prévoir la probabilité de récidive criminelle. Il est très important que nous accordions une grande attention aux préjugés inconscients qui sont intégrés dans les ensembles de données.

[Une photo montre plusieurs escaliers blancs. Le texte suivant apparaît sur la photo : « Les ensembles de données peuvent être biaisés non seulement à cause de l'inclusion de diverses données, mais aussi en raison de l'exclusion de certains types de données bien précis. »]

Les ensembles de données peuvent être biaisés non seulement à cause de l'inclusion de diverses données, mais aussi en raison de l'exclusion de certains types de données précis. Si ces lacunes sont systématiques, les prévisions seront biaisées.

 [Une photo montre une forme représentant une personne, debout à l'entrée d'un labyrinthe et le texte indique : « Les analystes n'ont souvent pas conscience des limites de leurs données ou des biais qu'elles comportent. » Un texte apparaît sur la même photo et indique : « Lorsque cela se produit, les analystes font preuve d'un excès de confiance à l'égard de leurs prévisions. »]

Les analystes et les décideurs n'ont souvent pas conscience des limites de leurs données ou des biais qu'elles comportent. Lorsque cela se produit, les analystes, en particulier, font preuve d'un excès de confiance à l'égard des prévisions qu'ils font et je sais, grâce à des recherches sur la prise de mauvaises décisions, qu'il s'agit de l'une des principales erreurs qu'ils commettent.

C'est un piège, car ils transmettent cet excès de confiance aux décideurs politiques qu'ils conseillent.

[Une photo montre une main déplaçant une pièce de jeu d'échecs noire sur un échiquier. Le texte suivant apparaît sur la photo : « Nous devons porter attention aux taux d'erreur associés aux prévisions... » Un texte s'ajoute au précédent et indique : « tout en se rappelant que la prise de décisions par des humains, sans aide, est également empreinte de préjugés, mais plus difficile à corriger. »]

Ainsi, alors que nous continuons à progresser dans ce domaine qui évolue de manière dynamique et en temps réel, nous sommes déjà à l'ère de l'IA et du renseignement.

Nous devons porter une très grande attention aux taux d'erreur associés aux prévisions et aux préjugés systémiques présents dans les données qui sont utilisées pour entraîner l'IA, tout en se rappelant que la prise de décisions par des humains, sans aide, est également empreinte de préjugés, mais qu'elle est plus difficile à corriger.

[Une photo montre des boules placées à l'intérieur d'un diagramme de Venn et le texte qui l'accompagne indique : « L'utilité de la modélisation ».]

J'aimerais vous parler d'un deuxième outil qui est particulièrement utile pour prévoir les événements rares et complexes. Cet outil est la modélisation, et permettez-moi d'illustrer l'utilité de la modélisation en...

[Une photo montre des soldats en Afghanistan. Un texte apparaît sur la photo et indique : « La chute de Kaboul, 2021 ».]

...parlant à nouveau de l'histoire de la chute de Kaboul durant l'été 2021. L'une des images étant restées gravées dans ma mémoire est certainement celle des avions américains...

[Une photo montre un article du journal The Guardian contenant une photo de plusieurs Afghans entourant un avion.]

...décollant de l'aéroport de Kaboul et des Afghans s'accrochant au ventre des avions dans une tentative désespérée de quitter le pays...

[Une photo montre un article de CNN contenant une photo d'individus rassemblés près d'un avion à Kaboul.]

...avant que les talibans ne consolident leur pouvoir. Les talibans ont rapidement repris des territoires, progressant du sud du pays vers le nord...

[Une photo montre un article de Fortune contenant une photo d'une foule d'Afghans réunis à l'aéroport.]

...et, en l'espace de dix jours, ont pris le contrôle de la capitale, Kaboul, le 15 août, et ont coupé les voies d'évacuation utilisées par les Afghans qui tentaient de fuir la ville.

[Une photo montre des Afghans faisant la queue pour embarquer dans un avion.]

Si vous avez vu ces images, vous vous êtes probablement demandé, comme moi, comment cette évacuation a pu se faire...

[Une photo montre une foule imposante de personnes en Afghanistan.]

...de façon si chaotique, désorganisée et franchement désordonnée? La réponse qu'ont donnée le plus souvent les responsables américains quand on leur a posé la question est...

[Une photo montre un article de Newsweek contenant une photo de soldats américains en Afghanistan.]

...qu'ils ont été surpris. Ils ont dit qu'ils avaient posé la question à leurs services de renseignement et qu'on leur avait répondu que, oui, les talibans allaient prendre le contrôle de l'Afghanistan, mais pas aussi rapidement.

[Une photo montre un article de USA Today contenant une photo d'une carte de Kaboul.]

Un organisme important a prévu que le gouvernement d'alors, celui du président Ashraf Ghani, resterait au pouvoir pendant au moins deux ans après le retrait des États-Unis. Un autre organisme a prévu que le gouvernement afghan survivrait pendant au moins un an après le retrait des forces américaines.

[Une photo montre un article de CBC contenant une photo du président Joe Biden parlant dans deux microphones.]

Ces estimations du renseignement avaient été mises à jour au début du mois d'août par tous les grands organismes, à la demande du président. Selon les nouvelles prévisions, le gouvernement afghan aurait pu tomber d'ici la fin de l'année 2021.

[Une photo montre le président Joe Biden s'adressant à des responsables.]

Il y avait donc des désaccords au sein de la communauté du renseignement, mais tous les organismes qui conseillaient le président Biden avaient convenu que ça ne se produirait pas avant un certain temps, au moins plusieurs mois. Le président a donc pris une décision cruciale. Il a accédé à la demande du président Ghani de ne pas commencer l'évacuation, car cela aurait ébranlé la confiance dans la pérennité du gouvernement afghan.

[Une photo montre le sol avec de nombreuses fissures.]

Maintenant, que s'est-il passé dans cette histoire?

[ Le texte suivant apparaît sur la photo : « Les prévisions ont orienté les décisions. »]

Comme dans presque tous les cas, les prévisions ont orienté les décisions.

[Une photo montre un article de Global News contenant une photo du premier ministre Justin Trudeau prononçant un discours derrière un podium.]

La situation était-elle différente au Canada, où l'on pourrait penser que les analystes du renseignement étaient moins désireux d'être optimistes, avaient moins d'intérêts en jeu? Après tout, aucune troupe canadienne n'était sur le terrain. Nous les avions retirées en 2014...

[Une photo montre des personnes marchant dans la rue en Afghanistan.]

...mais ce qu'il y avait là-bas, c'était des milliers d'interprètes qui avaient aidé les Forces armées canadiennes et, ce faisant, avaient mis leur vie et celle de leur famille en danger si les talibans en venaient à prendre le pouvoir. Il y avait aussi des fixeurs qui travaillaient avec des journalistes canadiens et avaient également mis leur vie en danger, en plus d'aider des organisations non gouvernementales canadiennes. Les prévisions des services de renseignement canadiens étaient-elles meilleures? Il semble que non.

[Une photo montre un article de Maclean's contenant une photo d'une foule à l'aéroport de Kaboul.]

Or, il est vrai qu'au Canada, nous recevons une grande partie de nos données et de nos analyses de renseignement directement des États-Unis. Il est également vrai que notre capacité autonome de collecte et d'interprétation de renseignements sur le terrain en Afghanistan était limitée.

Néanmoins, comme l'a dit l'un de nos principaux adjoints, nous avons été surpris. Nous pensions avoir le temps d'organiser l'évacuation de tous les Afghans qui avaient aidé les Canadiens. Nous n'avions pas le temps et nous avons donc laissé derrière nous des centaines, voire des milliers d'Afghans qui ont risqué leur vie pour le Canada. Beaucoup se sont cachés dans des refuges pendant des mois, dans l'attente d'une aide qui était désormais beaucoup plus difficile à fournir...

[Une photo montre des morceaux de casse-tête noirs. Le texte suivant apparaît sur la photo : « Immigration, Réfugiés et Citoyenneté Canada a été submergé par des milliers de dossiers de personnes bloquées à l'étranger. » Un texte apparaît sur la même photo et indique : « De meilleures analyses prévisionnelles auraient fait une énorme différence. »]

...et Immigration, Réfugiés et Citoyenneté Canada (IRCC), l'organisation canadienne chargée de l'immigration et des réfugiés, a été submergée par les milliers de dossiers de personnes bloquées à l'étranger et cherchant désespérément de l'aide qu'il fallait traiter. Pourtant, ces personnes devaient être considérées comme des risques pour la sécurité. De meilleures analyses prévisionnelles auraient fait une énorme différence...

[Une photo montre cinq épingles rouges sur une carte. Le texte suivant apparaît sur la photo : « Prévoir "quand" quelque chose se produira est beaucoup plus difficile que de prévoir "si" un événement va se produire. » Un texte apparaît sur la même photo et indique : « Même si nous pouvions nous appuyer sur tous les cas historiques, bon nombre d'entre eux ne seraient pas pertinents. »]

...mais le véritable défi était de mieux prévoir quand les talibans allaient probablement prendre le contrôle de Kaboul. Il est beaucoup plus facile de prévoir si un événement se produira que le moment auquel il se produira. Ce genre de prévision est vraiment difficile à faire. Nous disposons de très peu de données pour entraîner une IA, et ce serait le cas même si nous pouvions nous appuyer sur tous les cas historiques disponibles. Bon nombre de ces cas n'auraient pas été pertinents tant le contexte était différent.

[Une photo montre plusieurs points d'interrogation noirs et un point d'interrogation jaune. Le texte suivant apparaît sur la photo : « Qu'aurions-nous pu faire pour mieux éclairer les décisions urgentes? »] Un texte apparaît sur la même photo et indique : « Nous aurions pu créer un modèle. »]

Alors, qu'aurions-nous pu faire au début du mois d'août face à l'incertitude et à la nécessité de faire des prévisions visant à éclairer les décisions urgentes?

Nous aurions pu créer un modèle établissant les hypothèses relatives à certains facteurs qui conduiraient au retour des talibans, et préciser à l'avance quels étaient les indicateurs de chacun de ces facteurs afin que les analystes du renseignement sachent ce qu'il faut rechercher.

[Une photo montre des modèles géométriques numériques.]

Nous aurions alors pu intégrer dans ce modèle, chaque heure...

[Un texte apparaît sur la photo et indique :
« Données pertinentes pour la modélisation prédictive :
Emplacement des forces talibanes
Distance à laquelle elles se trouvent de la capitale
État des routes
Moyens de transport
Capacités des forces spéciales afghanes
Rythme de progression des talibans ».]

...des données pertinentes pour les indicateurs de ces facteurs, des données comme l'emplacement des forces talibanes, la distance à laquelle elles se trouvent de la capitale, l'état des routes, leurs moyens de transport, l'endroit où les forces spéciales afghanes étaient déployées et où elles étaient mises à contribution, ainsi que le rythme de progression des talibans.

En utilisant des hypothèses sur les préférences des talibans, nous aurions pu demander au modèle de prévoir le rythme de leur avancée, puis nous aurions pu lui demander d'actualiser les prévisions au fur et à mesure que de nouvelles données étaient produites.

[Une photo montre une carte rouge et jaune intitulée Avancées des talibans.]

Les deux premières provinces du nord de l'Afghanistan, cœur de la résistance traditionnelle aux talibans, sont tombées sans qu'il y ait eu le moindre combat le 5 août. Dans quelle mesure ces indicateurs étaient-ils révélateurs? Eh bien, pour moi, ils étaient très significatifs et je me suis dit tout bas que la chute de Kaboul était imminente. Si nos services avaient considéré ces variables comme révélatrices en s'appuyant sur une discussion que nous aurions pu avoir au préalable sur leur importance...

[Une photo montre des personnes en train de faire la queue à l'aéroport de Kaboul.]

...nous aurions pu envoyer des avions à Kaboul une semaine avant que les talibans ne prennent le contrôle de la ville.

[Une photo montre des soldats aidant un enfant à grimper sur une plateforme.]

De nombreux Afghans, envers qui nous étions et sommes toujours redevables, auraient pu être évacués en toute sécurité. Le temps a vraiment joué et ce sont les prévisions précises qui donnent du temps aux décideurs.

[Une photo montre un morceau de casse-tête rouge dans un casse-tête blanc. Le texte suivant apparaît sur la photo : « Des modèles permettant de vérifier les hypothèses, combinés au jugement humain, auraient pu contribuer à améliorer les prévisions. » Puis, le texte disparaît. Un texte apparaît sur la même photo et indique : « La question n'est pas de savoir si nous avons une IA ou un modèle parfait, mais plutôt : comment ces modèles se comparent-ils aux mécanismes humains de prise de décisions? »]

Dans ce cas vraiment complexe, combiner le jugement humain et des modèles qui cherchent à vérifier les hypothèses aurait pu contribuer à améliorer les prévisions. Lorsque nous réfléchissons à la manière dont un modèle aurait pu aider à prévoir la chute de Kaboul, nous devons le comparer aux mécanismes humains de prise de décisions, qui sont également biaisés. C'est toujours le cas par défaut.

La question n'est pas de savoir si nous disposons d'un modèle parfait ou d'une IA parfaite, mais de savoir comment ces modèles se comparent aux mécanismes humains de prise de décisions, qui sont souvent imparfaits pour des raisons que nous connaissons.

[Une photo montre une grande échelle illuminée placée à côté d'échelles bleu clair plus courtes appuyées contre un mur bleu clair. Le texte suivant apparaît sur la photo : « La création d'un modèle nous oblige à établir clairement nos hypothèses, ce qui constitue un puissant outil pour en extraire les préjugés. »]

Voici donc pourquoi il est utile de créer un modèle.

Nous sommes obligés d'établir clairement nos hypothèses et sommes aussi contraints de le faire pour certains types d'IA. Il s'agit d'un outil puissant qui permet d'éliminer les préjugés. Nous pouvons comparer des hypothèses différentes avec les données dont nous disposons. La prise en compte de diverses hypothèses est un autre outil permettant de se débarrasser des préjugés. Outre le rythme de progression des talibans, le fait que certaines provinces tombent pouvait-il nous indiquer que la chute de Kaboul était probable?

[Une photo montre des prismes rectangulaires de couleurs différentes et de hauteurs différentes. Le texte suivant apparaît sur la photo : « Les autres modèles possibles peuvent permettre de faire diverses prévisions, ce qui contribue à élargir l'éventail de ce que peuvent dire les analystes aux décideurs politiques. »]

Les autres modèles peuvent permettre de faire diverses prévisions, chacune étant communiquée aux décideurs avec un niveau de confiance variable, ce qui contribue à élargir l'éventail de ce que peuvent dire les analystes aux décideurs et à évoquer les impondérables. Avertir les décideurs qui doivent prendre ces décisions de ces écarts leur est extrêmement utile, puisque ces décisions auront des conséquences extrêmement graves, au mieux, dans un monde fondé sur les probabilités, mais la plupart du temps, dans un monde où règne l'incertitude.

[Une photo montre plusieurs points d'interrogation noirs. Le texte suivant apparaît sur la photo : « Un choix difficile : commencer l'évacuation immédiatement et miner la confiance ou attendre et risquer que l'évacuation soit précipitée. »]

Prenons un instant pour revenir en arrière et mettons-nous à la place des décideurs à Ottawa entre le 5 et le 15 août.

Les ministres ont dû choisir entre commencer immédiatement l'évacuation et miner la confiance envers le gouvernement afghan ou attendre et risquer que l'évacuation se fasse de façon précipitée et mette en danger de nombreux Afghans inscrits sur les listes de demandeurs depuis des années. Quel préjudice auriez-vous conseillé à notre gouvernement de limiter le plus possible? Quelles données probantes auriez-vous utilisées? Sur quoi auriez-vous basé votre prévision? Je vous laisse y réfléchir.

[Une photo montre un hélicoptère qui vole au-dessus du sol.]

Examinons un deuxième problème, une prévision pour laquelle l'IA aurait pu être très utile. Après cette évacuation effectuée en catastrophe, les Afghans qui avaient risqué leur vie pour le Canada ont été dispersés dans toute la ville de Kaboul.

[Une photo montre une flèche rouge composée de morceaux de casse-tête. Le texte suivant apparaît sur la photo : « L'IA aurait-elle pu contribuer à faire des prévisions qui auraient permis d'identifier les Afghans ayant aidé les Canadiens et de leur fournir des visas? »]

L'IA aurait-elle pu aider nos fonctionnaires à faire rapidement, en l'espace de 48 heures, des prévisions qu'ils auraient pu utiliser pour identifier les Afghans qui prétendaient avoir aidé des Canadiens et leur fournir des documents et des visas? De nombreux Afghans avaient présenté une demande pour venir au Canada des années auparavant, mais le processus de traitement est très lent, et les Afghans qui se sont rassemblés aux portes de l'aéroport avaient besoin d'un seul document, un visa du Canada, avant de pouvoir entrer dans l'aéroport.

L'IA aurait-elle pu nous aider dans ce cas?

[Une photo montre des chiffres et des bâtiments. Le texte suivant apparaît sur la photo : « Une IA aurait pu être entraînée à partir d'un ensemble de données sur les réfugiés admis jusqu'ici, puis testée pour en assurer l'exactitude. »]

Dans ce cas-ci, de grands ensembles de données sur les demandes d'immigration antérieures sont disponibles ou auraient pu être construits facilement.

Une IA aurait pu être entraînée à partir d'un ensemble de données concernant les réfugiés provenant de pays déchirés par la guerre que le Canada a admis et ceux dont les demandes ont été rejetées. Un ensemble de validation aurait pu être créé concernant les réfugiés d'autres pays. Des analystes futés auraient pu porter une attention particulière aux préjugés qui auraient pu entacher ces ensembles de données. L'IA aurait ensuite pu être comparée à un ensemble d'essais, et son taux d'erreur aurait pu être établi. Les prévisions faites par l'IA auraient presque inévitablement reflété certains des préjugés des décideurs précédents, mais au moins, les décideurs d'IRCC auraient obtenu à l'avance certaines informations sur les préjugés et en auraient appris davantage sur le taux d'erreur.

[Une photo montre des soldats en Afghanistan. Le texte suivant apparaît sur la photo : « Quel a été le coût de ces retards? »]

Revenons donc au véritable problème stratégique auquel les fonctionnaires ont été confrontés. Si les prévisions avaient été faites de cette manière, ils auraient pu comparer le taux d'erreur avec les retards d'origine humaine de deux ans dans l'émission des visas qui ont empêché de nombreux Afghans d'être évacués à temps.

Quel a été le coût de ces retards? Eh bien, les Afghans qui se sont rassemblés aux portes de l'aéroport de Kaboul, mais qui n'avaient pas de visa du Canada ont été refoulés. Pratiquement tous ceux qui ont été refoulés courent maintenant des risques considérables. Le financement des refuges est épuisé et des Afghans sont coincés dans le pays et dans le monde entier dans l'attente de visas canadiens.

Il est très probable que les fonctionnaires, qui font actuellement des heures supplémentaires pour traiter ces dossiers, commettent néanmoins des erreurs que tous les êtres humains font. Nous faisons tous ce genre d'erreurs, et ce n'est en aucun cas une critique à l'égard de nos fonctionnaires, mais lorsque nous, les êtres humains, nous prenons des décisions sans aide, nous ne pouvons pas évaluer ces erreurs avec un quelconque degré d'exactitude ni examiner les préjugés.

[Une photo montre un schéma composé de plusieurs petits cercles. Le texte suivant apparaît sur la photo : « Reformuler le problème stratégique : entraîner une IA à générer des listes d'Afghans à évacuer en fonction des contraintes de temps, en privilégiant l'efficience plutôt que l'exactitude, ou ne générer aucune liste et condamner de nombreux Afghans à rester coincés sans aide. »]

Il faut donc penser au problème stratégique de la façon suivante.

Nous aurions pu entraîner une IA à générer des listes d'Afghans pouvant être évacués en cas d'urgence. Dans ce cas, nous aurions utilisé l'IA pour améliorer l'efficience, tout en sachant que nous sacrifiions un peu d'exactitude en raison de la nécessité d'une intervention rapide.

L'autre solution, qui consistait à ne générer aucune liste en raison du peu de temps dont nous disposions, des besoins complexes en matière de données et du risque d'erreur, qui est un facteur important pour les décideurs humains, a eu pour conséquence d'isoler de nombreux Afghans et de les priver d'aide. Comment évalueriez-vous les avantages et les préjudices relatifs et que conseilleriez-vous au ministre?

[Une photo montre des morceaux de casse-tête réunis en cercle. Le texte suivant apparaît sur la photo : « De bons renseignements sont essentiels à la prise de décisions. » Un texte apparaît sur la même photo et indique : « L'IA et les modèles peuvent aider de diverses façons et sont adaptés à différents problèmes stratégiques. » La suite du texte apparaît et indique : « Nous pouvons connaître le taux d'erreur de leurs prévisions, mais rarement celui des nôtres. » Finalement, la phrase suivante apparaît sur la même photo : « Nous prêtons attention aux biais de l'IA, mais beaucoup moins aux préjugés de tous les décideurs humains. »]

En résumé, de bons renseignements sont absolument essentiels à la prise de décisions. Ça a toujours été le cas et ça l'est de plus en plus. Le renseignement est fondamentalement une question de prévisions.

L'IA et les modèles peuvent tous deux aider à faire des prévisions, bien qu'ils le fassent de diverses façons et que chacun soit adapté à des types de problèmes stratégiques différents.

Nous pouvons connaître le taux d'erreur de leurs prévisions. Nous connaissons rarement notre propre taux d'erreur.

Nous accordons beaucoup d'attention aux biais systématiques créés par une IA, mais beaucoup moins aux préjugés systématiques qui persistent chez tous les décideurs humains.

[00:34:32 Une photo montre une boîte ouverte émettant de la lumière parmi d'autres boîtes fermées.]

Quels sont donc les défis à relever alors que nous évoluons vers un monde où le renseignement est généré par l'intelligence artificielle? Quelle est la meilleure façon de combiner les avantages du renseignement humain et de l'intelligence artificielle pour améliorer les prévisions essentielles à l'élaboration de meilleures politiques? Quand pouvons-nous utiliser l'IA pour améliorer l'exactitude et quand pouvons-nous le faire pour améliorer l'efficience? Comment pouvons-nous concilier ces deux aspects? Quels types de problèmes en matière de prévisions sont les mieux adaptés à l'IA et quels sont ceux qu'il est préférable de traiter au moyen de modèles qui utilisent des hypothèses de façon explicite? Au cours des prochaines années, nous en apprendrons davantage et nous arriverons à mieux relever ces défis, mais nous sommes déjà à l'ère des modèles et de l'intelligence artificielle. Merci.

[Une bannière contenant le texte suivant apparaît : « Série L'INTELLIGENCE ARTIFICIELLE EST À NOS PORTES ».]

Discussion en groupe :

Martin Green: Eh bien, merci, Janice, pour cette excellente présentation. J'aimerais vous présenter nos deux panélistes invités de cet après-midi. Nous avons le privilège d'accueillir Janice Stein, professeure à l'École Munk des affaires internationales et des politiques publiques et professeure en gestion des conflits au Département des sciences politiques de l'Université de Toronto. Se joint également à nous, depuis Atlanta, Jon Lindsay, professeur agrégé à l'École de la cybersécurité et de la protection des renseignements personnels et à l'École Sam Nunn des affaires internationales de l'Institut de technologie de la Géorgie.

J'aimerais rappeler aux participants qu'ils peuvent nous envoyer des questions. Nous allons discuter brièvement de quelques sujets avec nos invités, puis nous passerons à la séance de questions et réponses. Pour poser une question, vous n'avez qu'à cliquer sur le bouton « Lever la main » dans le coin supérieur droit de votre écran et à saisir votre question. N'hésitez donc pas à le faire et la dernière demi-heure sera consacrée à vos questions.

Alors, lançons la discussion : les gens parlent de l'intelligence artificielle depuis un certain nombre d'années, on en parle beaucoup, on dit que nous sommes à l'aube de la quatrième révolution industrielle ou que nous y sommes déjà. J'aimerais vous demander à tous les deux ce que vous pensez du contexte dans lequel nous évoluons actuellement.

L'IA se différencie-t-elle vraiment des approches plus traditionnelles de collecte de renseignements actuellement?

[Le texte suivant apparaît à l'écran : « L'intelligence artificielle et l'apprentissage automatique dans le domaine du renseignement étranger », « Politiques et réglementation ». Le professeur Lindsay est assis dans un bureau face à sa caméra Web. La professeure Stein est assise dans un bureau face à sa caméra Web.]00:37:40 Un texte apparaît à l'écran : « L'intelligence artificielle et l'apprentissage automatique en renseignement étranger » « Règlements et politiques ». Janice Stein apparaît dans une fenêtre de clavardage vidéo. Jon Lindsay apparaît dans une fenêtre de clavardage vidéo.]

Où en sommes-nous dans l'utilisation de ces technologies? Sont-elles encore considérées comme nouvelles ou avons-nous fait un bon bout de chemin? L'objectif est de faire une mise en contexte pour que les participants puissent savoir où nous en sommes dans cette quatrième révolution industrielle, si nous en sommes là. J'ai pensé que je pourrais vous adresser cette question, monsieur Lindsay, si vous voulez bien commencer.

Jon Lindsay:Absolument. Donc, non, il ne manque pas de documents provenant des États-Unis, des pays européens, assurément de la Chine, qui dépeignent l'IA comme la nouvelle solution miracle en matière de concurrence, que ce soit dans le domaine économique ou militaire. L'idée selon laquelle cette transformation et la capacité d'analyser et de prévoir les données vont conduire à une sorte de réforme complète de la compétitivité nationale, et peut-être que c'est le cas surtout dans le domaine militaire, n'est-ce pas, et ce ne sont pas les récits d'anticipation nous incitant à penser de cette manière qui manquent.

Bien entendu, la réalité est bien plus complexe. La situation, comme vous l'avez dit, est beaucoup plus complexe et je pense qu'il est important de comprendre ce concept que nous appelons la quatrième révolution industrielle, soit qu'il s'agit d'un processus beaucoup plus long par lequel nous passons du travail physique, de l'activité physique, de l'interaction humaine, de la construction d'objets et de la réalisation de projets à des activités qui relèvent davantage d'une démarche cognitive. Avant même de commencer à penser à ce que les machines peuvent faire dans le domaine cognitif, beaucoup de gens accomplissent des tâches qui ressemblent plus à du travail de bureau qu'à du travail d'usine, travaillent dans des quartiers généraux plutôt que de combattre sur le champ de bataille, et il s'agit d'une tendance à long terme qui n'a rien à voir avec l'IA et qui crée ces incroyables défis en matière de gestion de l'information.

Ainsi, je pense que l'enthousiasme suscité par l'IA consiste en quelque sorte simplement à reconnaître les difficultés que pose cet environnement très riche en information et complexe à interpréter dans lequel évoluent les entreprises, les armées et les organismes de renseignement. On espère toujours qu'une solution technologique réglera ce problème, mais je pense que plutôt que d'assister à une quatrième révolution, nous observons le même processus se poursuivre, ce qui signifie que les humains et l'énergie doivent faire face à des problèmes de plus en plus complexes et composer avec un grand nombre de problèmes que ces mêmes solutions créeront au cours du processus.

Janice Stein: Je me permettrais d'ajouter quelque chose à ce que Jon vient de dire. Si nous allons jouer le long de la frontière, dans le domaine de la science-fiction, le projet d'anticipation le plus intéressant en ce moment concerne ce que nous appelons l'AGI, l'intelligence artificielle générale, et c'est ce qui marque l'imaginaire populaire. Les humains sont-ils sur le point d'être entièrement remplacés par des machines? C'est une question qui se situe à l'extrême limite de la frontière, je pense, et ce dont nous parlons sans cesse à la machine à café, c'est de savoir à quel point nous nous en approchons.

Je pense qu'il pourrait être utile de faire une distinction ici et il serait intéressant, Jon, de savoir ce que vous en pensez. D'un côté, il y a l'argument selon lequel il faut remplacer la cognition humaine par la cognition artificielle, car c'est ce qu'est l'intelligence artificielle, une capacité très avancée de traiter d'énormes quantités de données et de tirer des modèles de ces données. Et permettez-moi d'ajouter un mot chargé dont nous ne connaissons pas le sens. Croyez-le ou non, après 2000 ans, nous ne savons toujours pas, désapprendre, car c'est le mot crucial ici, et il n'y a pas de consensus dans le domaine des neurosciences, des sciences cognitives, de la philosophie ou de l'intelligence artificielle sur la signification de ce mot, car c'est ce à quoi les machines en sont venues à être destinées et ce qu'elles feraient.

Il faudrait qu'elles aient une capacité autonome d'apprentissage afin de pouvoir nous remplacer, et puis il y a l'approche beaucoup plus pragmatique, comme l'a laissé entendre Jon, selon laquelle les machines vont nous aider à accomplir beaucoup de choses que nous faisons. Ce sont des renforts, et donc l'IA renforcera les capacités. Nous n'avons pas à chercher très loin. Lorsque nous prenons notre téléphone intelligent – le mien m'a déjà envoyé un message sur quelque chose parce qu'il a compris, grâce à la reconnaissance des formes, que ça m'intéresse. Pire encore, ma machine à espresso à la maison. J'ai dû en acheter une nouvelle parce que ma vieille machine adorée a rendu l'âme, et c'est donc une machine à espresso intelligente. Cette seule machine peut faire 12 sortes de boissons. Je ne l'utilise que depuis trois jours. Elle sait que je n'en veux qu'une et les 11 autres ont maintenant disparu du tableau d'affichage.

Alors, cette machine est-elle dotée d'une capacité de raisonnement? Est-ce qu'elle utilise la reconnaissance des formes de façon très intelligente? Il s'agit d'un exemple d'utilisation de l'IA dans la vie de tous les jours. Donc, de ce point de vue, elle est déjà là. Nous ne sommes pas... il ne s'agit pas d'un processus, c'est là. Elle est là depuis longtemps et elle s'améliore sans cesse en ce qui concerne la reconnaissance des formes. Il y a toujours une grande question, très vaste : peut-elle apprendre? C'est la grande question et nous n'avons pas de réponse.

Martin Green: Alors, vous savez, certains des systèmes d'IA sont très polis. Je sais qu'il m'arrive d'invectiver le système de commande vocale de ma télévision lorsqu'il ne fait pas ce que je veux, mais il me répond toujours poliment. Ça ressemble à : « Je ne comprends pas, Martin, voulais-tu faire autre chose? »

Dans mon métier, nous travaillons beaucoup sur l'IA en tant que sujet, vous savez, quel pays fait quoi, où en est la technologie, et malheureusement, l'une des choses dont on se rend vite compte, ce sont toutes les possibilités : l'IA dans le domaine des services de santé, l'IA dans celui des services sociaux. Les possibilités sont infinies, tout comme les aspects négatifs de toutes ces technologies quant aux utilisations que nous pourrions en faire. J'aimerais donc vous demander à tous les deux, en ce qui a trait aux études que vous menez sur le sujet, sur quoi porteront les principaux débats en matière de politiques concernant l'utilisation de l'IA? Nous savons que les États autoritaires, étant donné leur régime de commandement et de contrôle et, je dirais, leur manque de retenue, sont capables d'utiliser certaines des nouvelles technologies, y compris l'IA, essentiellement pour éliminer ou se débarrasser de la dissidence, du côté sombre de la chose, mais en ce qui concerne, je suppose, vous savez, l'Occident, faute d'un meilleur terme, et en particulier le Canada, quel sera l'objet de certains de ces débats importants en matière de politiques en ce qui concerne l'utilisation de l'IA? Voulez-vous commencer à nouveau, Jon, ou est-ce que...?

Janice Stein: Voulez-vous commencer, Jon?

Jon Lindsay: Bien sûr. Vous savez, je pense qu'il y a quatre grands domaines à souligner par rapport à cette question, et ils ressortent assurément lorsque l'on s'intéresse aux pays autoritaires. La Chine s'intéresse à l'intelligence artificielle parce qu'elle veut faire de l'argent et qu'il s'agit d'un énorme marché émergent. Elle souhaite aussi renforcer son régime de censure et de contrôle de l'information, et c'est certainement l'une des applications possibles de l'IA.

La Chine cherche à avoir, voyez-vous, des forces militaires plus modernes et efficaces. Au cours des 20 dernières années, les Chinois ont parlé d'« informatisation ». Maintenant, ils parlent de « culture du renseignement » (« intelligentisation  »). Le concept s'énonce mieux en chinois, d'accord, et il a beaucoup de sens pour la Chine parce qu'elle veut construire une armée semblable aux armées occidentales, qui sont très avancées sur le plan technologique, très connectées, mais qui reposent sur des effectifs très instruits, ayant beaucoup d'initiative, et c'est un peu effrayant pour l'Armée populaire de libération de la Chine, n'est-ce pas?

Parce que si les militaires sont des gens très intelligents, très instruits, avec beaucoup d'initiative, comment pourrons-nous nous assurer de leur loyauté? Dans cette optique, si nous pouvions colmater cette faille en matière de loyauté grâce à l'intelligence artificielle, peut-être pourrions-nous atteindre à la fois l'efficacité militaire et la loyauté au régime, et ainsi résoudre le problème de la prévention des coups d'État dont nous voyons un exemple en ce moment en Russie, n'est-ce pas? La question d'une armée très peu efficace, mais loyale. Vous savez, peut-être que c'est une victoire au niveau national. Mais je m'écarte du sujet.

Le quatrième domaine, c'est celui qui vous concerne, le monde du renseignement, qui cherche à donner un sens à cette masse d'informations, et je pense qu'il y a de sérieux défis à ce niveau aussi.

Vous savez, nous pouvons examiner de plus près ces quatre catégories, mais une chose que je veux souligner, c'est que dans l'histoire économique et politique de tous ces domaines, qu'il soit question de l'économie, des institutions, de la puissance militaire ou du renseignement, l'élément clé qui détermine l'efficacité de la technologie n'est pas la technologie elle-même, ni ce à quoi elle se substitue, mais plutôt ce qui l'accompagne : les compétences organisationnelles et la capacité humaine qu'un pays ou une entreprise peut mobiliser pour tirer le meilleur parti de sa technologie.

Je dirais donc que lorsque nous souhaitons comparer ce que l'Amérique du Nord peut accomplir avec ce que la Chine ou l'Europe peut accomplir, il faut effectuer une évaluation nette complète et examiner non seulement les substituts technologiques, mais aussi ces compléments humains, qui sont indispensables.

Janice Stein: Je pense que Jon a soulevé un point très important, à savoir que le fait d'isoler la technologie du contexte organisationnel et des systèmes plus larges dans lesquels elle est intégrée est un réel problème. C'est un problème. Notre analyse sera complètement erronée dans ce cas. Ensuite, permettez-moi de prendre une minute pour aller à l'autre bout du spectre et souligner un point qui n'est pas assez souvent abordé lorsque nous examinons les défis posés par l'IA.

L'un des problèmes, et il s'agit du défi le plus fréquemment mentionné dans la littérature, c'est que l'intelligence artificielle est biaisée. Maintenant, pourquoi est-elle biaisée? C'est une conversation très intéressante, car il y a une énorme quantité de données probantes. Je viens de lire un article très intéressant sur les applications d'IA issues de DeepMind, vous savez, DeepMind passe au crible l'ensemble du Web et recueille d'énormes quantités de données.

Mais évidemment, ce que ces algorithmes ne prennent pas en compte, c'est la quantité de bêtises que l'on trouve sur le Web, et la quantité de biais qui s'y reflètent. Et tout ce contenu est recueilli, incorporé dans les modèles et utilisé dans le développement d'IA, et vous connaissez la vieille expression, à données inexactes, résultats erronés... eh bien, à données biaisées, résultats biaisés...

Cependant, cet argument passe sous silence le fait que, si nous nous contentons de confier le problème à un être humain, nous obtiendrons aussi des résultats biaisés, car chacun d'entre nous a des préjugés, inconscients bien sûr, et parfois conscients. Le véritable problème réside dans les préjugés inconscients, et il n'y a pas d'être humain... il n'y a pas d'exception à cette règle. Chacun de nous a des préjugés et des biais inconscients parce que nous fonctionnons avec des scripts, des scripts cognitifs que nous développons pour gérer le problème dont Jon a parlé, soit de traiter d'énormes quantités d'informations. Notre processus de traitement cognitif s'effondrerait sans ces scripts, mais nous pensons rarement à nos propres biais quand... quand l'un des analystes de votre équipe, Martin, fournit un travail d'analyse.

Je dirais, en utilisant l'image d'une balançoire à bascule, que notre conversation n'est inclinée que dans un sens – les biais seraient tous du côté de l'IA, et il n'y en aurait aucun du côté de l'humain – à tous les coups, la discussion part d'une prémisse complètement inexacte.

Je ne dis pas qu'il ne faut pas s'inquiéter des biais pouvant être véhiculés par l'intelligence artificielle – simplement, il s'agit d'une préoccupation beaucoup plus large. Nous devons être attentifs aux préjugés inconscients présents dans tout processus humain de traitement de l'information, qu'il soit augmenté ou non, et je crois que de poser le problème de cette façon est un point de départ plus juste pour réfléchir à l'IA.

Martin Green: Merci. C'est très intéressant. Cette conversation sur les biais est très intéressante. Dans la période qui a mené à l'invasion de l'Ukraine par la Russie, vous savez, il était clair pour tous ceux qui lisaient les journaux que les États-Unis, comme jamais auparavant, ont communiqué certains de leurs renseignements les plus sophistiqués au public parce qu'il était presque évident que l'invasion allait avoir lieu.

Mais un grand nombre de personnes, dont moi-même, affichaient une forme de biais d'optimisme et se disaient « non, il ne fera jamais cela, c'est faux », et en fait, cela a été l'un de ces moments où mes analystes m'ont dit « ressaisis-toi, Martin », et c'est très... vous savez, en tant qu'être humain, c'est très difficile à observer et j'ai encore des moments... d'incrédulité totale face à la situation.

Je me souviens aussi que – et cela rejoint vos propos, professeur Lindsay – les principaux ingrédients de l'innovation dans un pays sont essentiellement la démographie, la technologie et les compétences des gens. Et plus je m'intéresse à l'IA, je constate que tout le monde dit que les fondements doivent être les gens, les talents, si vous voulez vraiment compter sur une intelligence artificielle qui produit des bénéfices sociaux.

Toutefois, il y a un autre élément à prendre en compte, auquel j'ai fait allusion, et je me demande comment les gouvernements occidentaux, vous savez, contournent cela ou si c'est durable. Nous croyons en un Internet libre et ouvert, vous savez. Nous avons des chartes des droits, des lois sur la protection de la vie privée, tout ça, et l'une des caractéristiques de l'IA est que plus vous pouvez obtenir de données, plus vous avez de données sur vos citoyens et plus la qualité de ces données est élevée, plus votre IA pourrait produire de bons résultats.

Alors, pensez-vous qu'il soit viable à long terme, aux États-Unis, au Canada, en Occident, d'avoir une approche fondée sur une forme de laissez-faire en ce qui concerne l'Internet et la façon dont l'IA est utilisée, ou pensez-vous que nous allons devoir intervenir davantage?

Jon Lindsay: Eh bien, je crois que nous avons déjà un niveau non négligeable d'intervention. Vous savez, les données ne se produisent pas toutes seules. Elles sont générées à la demande d'êtres humains dans les sociétés et les entreprises, et s'il commence à y avoir des objections, nous verrons apparaître davantage de restrictions relatives à la protection de la vie privée et une réglementation complète comme celle de l'Europe. Et vous savez, pour la toute première fois, la NSA (National Security Agency) aux États-Unis devra mettre en place un processus d'examen des plaintes européennes sur la surveillance, n'est-ce pas? Cela ne s'est jamais produit.

Un service de renseignement des États-Unis va maintenant être soumis à des lois étrangères que le Congrès n'a pas ratifiées, mais c'est le prix à payer pour que Facebook et Google puissent exercer leurs activités en Europe.

Je pense donc qu'il s'agit d'un débat très, très vif qui va se poursuivre, et ce n'est pas parce que nous avons davantage d'informations que l'intelligence artificielle est plus performante. Vous savez, je crois que le temps où l'information était gratuite et où l'on croyait tous devenir plus instruits et intelligents grâce à Internet est révolu depuis longtemps. Il y a beaucoup de bruit dans ce domaine et ce n'est que dans certaines applications que l'on pourra se dire « d'accord, voici les données que nous avons au sujet d'un problème que nous sommes en mesure de comprendre, nous comprenons d'où viennent les données ».

Et alors, vous pouvez... Prenons par exemple Uber, Lyft. Il y a plusieurs types de données. Il y a toutes les données qui entrent dans la création des cartes de flux de circulation en direct, celle qui entrent en jeu dans les modèles relatifs à l'achalandage, et il y a en quelque sorte un large consensus parmi les gens qui créent les cartes et les utilisent, qui empruntent les routes et souhaitent aller d'un point A à un point B de manière efficace. Tout le monde comprend ce que ces acteurs souhaitent faire, et ce à quoi une bonne performance de l'IA doit ressembler pour soutenir leur objectif.

Ainsi, on finit par obtenir, dans cet environnement très bien institutionnalisé, un créneau plutôt bien conçu d'applications permettant de prévoir des itinéraires et des prix, un ensemble d'applications d'IA pour soutenir les fonctions d'Uber. Il ne s'agit pas d'une IA à usage général que l'on peut déployer partout de la même façon, et ce ne serait sans doute pas une bonne idée d'y déverser un tas d'autres informations externes qui ne seraient pas totalement pertinentes pour cette prévision. Donc, lorsque l'on pense que l'on a besoin de plus de données, ce sont des données sur... les données auront toujours des biais. Il peut s'agir d'un biais qui sera utile pour le type d'application qu'une entreprise, une société décide de mettre au point, si l'on peut dire ainsi.

Janice Stein: Vous savez, simplement pour développer une fonctionnalité comme celle que Jon vient de décrire, si nous pensons aux premiers ordinateurs, on fonctionnait avec des cartes perforées. C'est ainsi que le secteur a vraiment commencé. Il y avait toutes sortes de contrôles de qualité, n'est-ce pas?

Parce que vous saviez que quoi qu'il arrive, il y aurait des erreurs, et vous deviez contrôler la qualité des entrées pour obtenir des résultats fiables. Je pense que c'est aussi ce vers quoi nous nous dirigeons avec l'IA, et c'est là que réside toute l'importance de vos remarques, Jon, nous ne sommes pas – l'objectif n'est pas d'amasser des quantités massives de données sur vos citoyens, car vous auriez beaucoup de données de mauvaise qualité – ces données vous seraient de peu d'utilité. Les modèles devront être affinés.

Vous aurez besoin de définir avec précision ce que vous voulez faire, Martin, puis de réaliser des investissements importants pour assurer la qualité des données introduites, car vous n'obtiendrez pas une IA sophistiquée sans contrôle de la qualité sur les données qui alimentent votre modèle. Ce projet dont j'ai parlé, qui a absorbé une quantité massive de données sur le Web et qui a produit des données inutilisables, eh bien, c'est ce qu'ils ont découvert.

On fait beaucoup de cas de la surveillance de masse, à vrai dire. En réalité, c'est du gaspillage, ces fonctionnalités coûtent cher, et ne donnent pas les résultats escomptés.

Il y avait dans les remarques de Jon une autre perle qui mérite qu'on y réfléchisse un instant, à savoir le rôle de la réglementation européenne concernant les normes en matière de données, notamment en ce qui concerne la vie privée.

Ce qui est particulièrement remarquable, c'est qu'il n'y a pas de grandes entreprises européennes. Les entreprises européennes ne sont pas dans la liste des 20 plus grandes entreprises du domaine. En fait, il y en a deux, tout en bas de la liste, aux rangs 18 et 19. Les autres sont toutes chinoises et américaines, ce qui en dit long sur l'Europe des 20 dernières années. Il y a Nokia, il y a Ericsson mais, ma foi, c'est très peu et c'est totalement disproportionné par rapport au marché industriel européen. C'est une très mauvaise performance. Aujourd'hui, les Français commencent tout juste à se structurer suffisamment.

Alors, comment se fait-il que l'Europe soit capable d'exporter ses normes en matière de données, et que Facebook et Google s'y conforment? Eh bien, ils s'y conforment parce qu'il est tout simplement plus efficace d'avoir une norme unique à respecter et que les entreprises traitent maintenant le monde entier comme un marché mondial.

C'est ce qui donne à l'Europe le pouvoir de réglementer, même si elle n'a pas de concurrents en lice, n'est-ce pas? Combien de temps encore cela sera-t-il possible? Je pense que c'est la grande question.

Avons-nous... Sommes-nous déjà à la fin de l'ère de l'Internet unique? Sommes-nous à la veille de voir apparaître un Internet fragmenté dans lequel il y a... dans lequel c'est très difficile, avec des pare-feu qui se multiplient et des espaces qui se rétrécissent? Et quand les espaces se rétrécissent, perdez-vous une partie de votre influence pour établir des normes dans un Internet beaucoup plus restreint que celui que nous connaissons actuellement? Ce sont des hypothèses sur ce qui nous attend, mais quelques-uns d'entre nous y pensent déjà.

Martin Green: Voilà une transition parfaite vers une forme de troisième partie, dans laquelle je mentionnerais qu'actuellement, la moitié des principaux experts mondiaux en IA travaillent pour des entreprises américaines et que les États-Unis attirent la majorité des talents de haut calibre.

[Text appears on the screen "AI and Machine Learning in Foreign Intelligence" "Policy and regulations."]

[Un texte apparaît indiquant: «L'intelligence artificielle et l'apprentissage automatique en renseignement étranger ».]

Le Canada fait aussi bonne figure à cet égard. En 2017, nous étions au quatrième rang mondial pour ce qui est d'attirer des talents de haut calibre. Nous sommes donc un acteur important dans ce créneau, je tiens à le souligner.

En ce qui concerne... l'une des questions à ce sujet porte sur les impacts des technologies de l'IA sur la géopolitique. Récemment, nous avons beaucoup entendu parler du fait que les États-Unis sont très irrités par les Chinois qui investissent dans la rétroingénierie, qui volent des technologies brevetées aux États-Unis – et c'est le cas aussi au Canada – et il y a eu beaucoup de discussions sur la séparation ou le découplage des systèmes de chaîne d'approvisionnement extraordinairement complexes, mais je me demandais si vous pourriez tous les deux nous faire part de vos réflexions sur le plan géopolitique.

On entend souvent dire qu'il y a trois centres technologiques en ce moment. La Chine, les États-Unis et l'Europe sont les principaux acteurs, mais j'aimerais savoir ce que vous pensez de la direction que prennent les choses sur le plan géopolitique.

Janice Stein: Jon?

Jon Lindsay: (rires)

Martin Green: En une ou deux phrases.

Jon Lindsay: En une ou deux phrases. J'essaie de prendre du recul par rapport à la question géopolitique, à la question de l'intelligence artificielle, en quelque sorte. De toute évidence, ce que nous observons n'est pas une nouvelle Guerre froide, mais quelque chose de totalement différent, n'est-ce pas? On ne parle pas de bipolarité entre superpuissances nucléaires. Les centres sont multiples.

Il y a une concurrence simultanée sur de multiples dimensions avec un degré d'intégration sans précédent, et même si l'on assiste à une redéfinition des relations dans certains domaines, l'intégration demeurera un fil conducteur et nous la verrons fluctuer dans certains domaines, et donc, comment être en concurrence tout en coopérant, et comment coopérer tout en étant en concurrence? Ces questions seront des thèmes centraux sur lesquels nous continuerons à travailler et je pense que cela crée une tension énorme sur la question de l'IA parce que d'un côté, vous vous dites, ma parole, la Chine ou d'autres pays vont avoir un système d'IA qui renforcera leur puissance militaire et leur permettra de pallier beaucoup de leurs lacunes. Eh bien, c'est un peu le classique « observons comment la puissance de chaque pays influence les autres ».

Mais si ce qui rend l'IA si efficace, c'est l'accès à un grand volume de données qui sont largement partagées et qui impliquent des problèmes plus collectifs, alors il faut un certain degré d'intégration pour rendre ces données disponibles.

Ainsi, malgré ces grandes tendances géopolitiques, il ne faut pas s'attendre à une rupture brutale, car cette superposition fort intéressante de la coopération et de la concurrence est là pour rester, et je pense que l'IA est vraiment, vous savez, pratiquement une illustration parfaite de cela, car quand elle fonctionne bien, c'est parce qu'il y a une structure institutionnelle en place, n'est-ce pas? J'ai donné l'exemple d'Uber, vous voyez, la conduite autonome? Dans cet exemple, on trouve une forme d'économie stable où tout le monde est d'accord sur le fait qu'il s'agit d'éléments souhaitables.

Et les situations militaires sont tout le contraire, non? Les données accessibles sont de très mauvaise qualité. Et les jugements sont controversés, n'est-ce pas? Il est très difficile dans ce domaine de trouver des applications possibles de l'IA autres que des applications très, très spécialisées.

Ainsi, compte tenu du contexte émergent de multipolarité, dans lequel nous avons des centres multiples dans un monde fortement interdépendant, nous assistons en quelque sorte à ces deux tendances en simultané, et je crois que cela va rendre l'intelligence artificielle très attrayante mais aussi très, très difficile à opérationnaliser.

Janice Stein: Je vais... Je suis d'accord avec l'ensemble des propos de Jon. Maintenant, je vais me permettre de faire un commentaire provocateur sur un petit aspect de votre question d'ouverture, Martin, quand vous avez dit qu'il y a une histoire de vol de propriété intellectuelle en ce qui concerne la Chine, ce qui est assurément un thème récurrent, et pour lequel nous avons adopté des règlements au Canada.

Je pense que cela sera probablement l'un de nos plus grands objectifs, et pourquoi, parce que l'histoire de la Chine qui envoie ses étudiants diplômés et son corps professoral en Occident pour voler la propriété intellectuelle est une histoire ancienne, vous n'avez pas besoin... vous pourriez le faire simplement en étant présent, n'est-ce pas, parce que vous sortez du laboratoire et les idées sont dans votre tête.

Cette histoire est vieille et dépassée et – parce que c'est ce que Jon vient de dire, nous devrions envoyer nos professeurs et nos étudiants des cycles supérieurs dans les meilleures universités en Chine pour apprendre et rattraper notre retard et être aussi bons dans certains domaines primordiaux où la Chine est maintenant en tête.

Donc, ce genre de réflexe viscéral, garder les gens à l'extérieur, aurait pu être une histoire qui aurait fonctionné il y a 20 ans. Mais il s'agit d'une stratégie autodestructrice pour un pays comme le Canada dans les années 2020, cela ne fait aucun doute. Je sais que presque personne au sein du gouvernement canadien n'est d'accord avec moi sur ce point, mais si nous le disons assez souvent et assez fort, cela peut commencer à avoir du sens pour les personnes qui ont une connaissance approfondie des avancées de la Chine dans certains domaines.

Et c'est là que Jon a tout à fait raison, parce qu'il s'agit d'une histoire tellement distincte et qu'il faut connaître certains domaines de l'intelligence artificielle et certains domaines relatifs au contenu dans lesquels la Chine a réalisé des investissements massifs et des avancées très importantes.

Il nous faut laisser tomber cette histoire qui a 20 ans de retard, c'est tout ce que je peux dire.

Martin Green: Je suis tout à fait d'accord avec la partie concernant l'augmentation du nombre d'étudiants canadiens allant étudier en Chine, vous savez. Je pense, si ma mémoire est bonne, qu'il y a environ cinq ans, il y avait quelque 150 000 d'étudiants chinois au Canada, la plupart aux cycles supérieurs. De notre côté, nous avions environ 1 300 ou 1 500 étudiants en Chine. En somme, si nous voulons travailler avec le plus grand centre économique de la planète et en tirer profit, il est logique de vouloir en savoir plus.

Quant au reste de ce discours, nous en parlerons à un autre moment, car il se passe beaucoup de choses et nous avons mis en place des garde-fous. Nous voici maintenant au moment de répondre aux questions du public, et un certain nombre de questions ont été envoyées. L'une d'entre elles, et je vais profiter de mon statut de modérateur pour la poser, est une question que je me pose moi-même, et que mes analystes me posent constamment.

Dans le domaine de l'intelligence artificielle – et nous disposons, vous savez, d'une communauté croissante d'analystes du renseignement au niveau fédéral, des agents du service extérieur, dont un certain nombre recueillent des informations dans le domaine du renseignement étranger. Alors que nous évoluons vers un avenir sans doute davantage axé sur la technologie, ce qui inclut l'IA, que conseilleriez-vous aux jeunes fonctionnaires pour qu'ils se préparent adéquatement au monde que nous voyons émerger?

Jon Lindsay: Lire sur le vieux monde. Je crois que plus on apprend sur l'histoire et la nature humaine, plus on est à même de savoir ce que les États et les chefs d'État veulent réellement et mieux on se porte, parce que, encore une fois, l'IA vous aidera à répondre à des questions telles que : s'agit-il d'un char d'assaut? Est-ce un navire? Par exemple, à quoi ressemblent les schémas des migrations et des flux de réfugiés, et tous ces éléments sont très, très utiles pour éclairer votre analyse.

Mais quand il s'agit de savoir ce que ce dictateur va accepter ou à quel moment il sera prêt à négocier... Cela renvoie à des questions fondamentales sur la peur, la richesse, le statut et tous les concepts associés au « piège de Thucydide », qui font appel à des notions liées à la valeur, au jugement, aux buts, aux objectifs, aux enjeux, et je pense que plus nous automatiserons le travail des êtres humains, les tâches qui ne peuvent être réalisées par les machines et les qualités morales et intellectuelles deviendront de plus en plus importantes. Donc, l'avantage comparatif des analystes sera de comprendre la nature des êtres humains et des sociétés humaines.

Janice Stein: Je pense que c'est tout à fait juste. Je pourrais ajouter un autre élément parce que l'IA fait partie d'une longue liste de technologies mises au point pour améliorer nos capacités à comprendre et à analyser les problèmes. Ainsi, lorsque nous utilisons ces technologies, il y a toujours un risque de mysticisme aveugle. Vous savez, je me rappelle du moment où j'ai appris une nouvelle technique statistique lors de mes études aux cycles supérieurs, il y a très longtemps. Eh bien, c'était magique, n'est-ce pas? Cette technique produisait des résultats et on avait tendance à les croire valides, car il y avait une forme de magie qui entrait en jeu. En fait, la technologie n'est jamais magique et je pense que Jon et moi, tout comme vous Martin, nous avons mis en évidence cet après-midi, d'une manière bien différente, que ce qui importe réellement, c'est de comprendre la qualité des données qui alimentent les technologies dont nous nous servons, et de prendre du recul en tant qu'analystes et de poser ces questions difficiles : de quel type de données s'agit-il? Quel type de données a produit cette analyse? De quelle manière ces données ont-elles été traitées, pour que vous n'ayez pas la capacité de le faire vous-même? La question n'est pas de les rejeter, car évidemment, nous ne serons jamais aussi compétents que les gens qui y travaillent à temps plein, mais d'avoir la capacité de poser des questions difficiles sur la qualité et de toujours faire preuve de scepticisme face aux résultats d'une analyse que nous ne comprenons pas. Cela me fait penser à l'analyse des produits financiers dérivés et à l'histoire d'un PDG qui a dit à leur sujet « Non, non, je ne fais pas cela dans ma banque ». Lorsqu'on lui a demandé pourquoi, il a répondu : « Parce que je ne les comprends pas. Et je ne vais pas signer pour quelque chose que je ne comprends pas », et il a été l'un des rares à voir sa banque traverser les années 2007 à 2009 sans subir de graves conséquences.

Alors, faites appel à votre jugement, à votre scepticisme, à votre intelligence, et posez des questions difficiles sur la qualité du travail que vous faites, qui ne changera jamais, quelle que soit la technologie.

Jon Lindsay: Si je peux ajouter un autre conseil pratique, je dirai que si vous vous intéressez à l'intelligence artificielle – et c'est quelque chose que vous pouvez facilement mettre en œuvre, descendez de la stratosphère des grands débats sur la compétitivité dans l'IA et allez examiner un système en place faisant appel à l'IA pour prendre conscience les difficultés qui se présentent.

Par exemple, j'ai un voisin qui travaille dans le domaine de la vision par ordinateur. Il a une entreprise, et il travaille à mettre au point un système qui aura simplement pour tâche d'observer les canettes de bière qui défilent sur la chaîne de montage et de repérer les canettes de bière ayant été écrasées pour les retirer de la chaîne. Actuellement, ce sont des humains qui effectuent la vérification des canettes et vous voyez, la plupart échappent à leur vigilance, et un tas de canettes échappent au contrôle de la qualité. Cela semble donc être une application parfaite de l'IA, dans un environnement extrêmement stable. Toutes les canettes de bière sont stables, elles sont fabriquées selon un procédé industriel de masse. Tout ce qu'il y a à faire, c'est de les regarder et de générer une alerte si une canette n'est pas conforme, et vous n'imaginez pas à quel point c'est complexe.

Les canettes de bière, même si elles se ressemblent, ne sont pas identiques. Elles sont légèrement décalées ou elles ont des gouttes de sueur, l'éclairage varie et diverses machines se mettent soudainement à émettre de la lumière dans la pièce. Il est utile, je pense, de prendre conscience de la quantité de réglages nécessaires pour résoudre un problème de vision par ordinateur aussi simple. Et maintenant, vous voulez élargir un tel système pour produire des estimations pour le service national du renseignement? Soyons sérieux un peu. Commencez par examiner le niveau le plus bas pour comprendre comment fonctionnent certains de ces systèmes, puis prenez du recul par rapport à ces connaissances et réfléchissez, la Chine va-t-elle réellement mettre cela en place? Comment un tel système va-t-il fonctionner? Et je pense que vous aurez une révélation.

Martin Green: C'est un excellent conseil. Nous avons un certain nombre de questions du public. Je pensais commencer par celle-ci. Les intervenants considèrent-ils que les décideurs ne font pas autant confiance à l'IA qu'à la collecte traditionnelle de renseignements, entre parenthèses, donnant à penser que la règle est de toujours faire confiance aux instruments plutôt qu'à son jugement?

Jon Lindsay: J'aime cette question parce que dans tous les débats sur les systèmes d'armes létales autonomes, les préoccupations sont du type, oh mon dieu, vous allez donner à Terminator la capacité de tuer des êtres humains, c'est terrible. Il doit y avoir un être humain dans la boucle et parfois la question est plutôt celle-ci, pourquoi faire davantage confiance au sergent Untel qu'à une machine? Vous pourriez vous retrouver devant Srebrenica ou Mỹ Lai ou une autre de ces terribles scènes créées par des humains, et la machine dirait probablement « non, c'est manifestement illégal, ce n'est pas une bonne idée, je ne choisirai pas cette situation ». Ainsi, vous voyez, il y a sans doute des situations où confier les choses aux machines vous donnera des résultats plus prévisibles. Mais nous ne souhaitons pas le faire parce que nous entretenons une idée plus romantique de l'apport des humains.

J'aime l'esprit de la question. Mais là encore, je pense que tout dépend du problème particulier que vous essayez de résoudre, par exemple, les instruments utilisés dans l'aviation fonctionnent, car nous comprenons l'environnement dans lequel ils se trouvent, les principes physiques qui les régissent, ce qu'ils détectent réellement, n'est-ce pas? À quelle distance du sol vous êtes, dans quelle direction le vent souffle, et c'est très bien. Vous avez dans ce cas un problème assez stable et une solution en parfaite harmonie avec lui, mais la plupart des problèmes liés au renseignement ne correspondent pas du tout à cela. Ce sont des problèmes désordonnés, complexes, qui génèrent beaucoup de bruit, et pour lesquels vous avez fait toutes sortes d'hypothèses biaisées. Vous avez besoin de quelqu'un qui connaisse bien le problème et la solution pour réduire cet écart.

Janice Stein: Et poussons cette analogie un peu plus loin. Revenons en arrière. Combien de passagers seraient d'accord si on leur disait : « Bouclez vos ceintures, c'est aujourd'hui l'intelligence artificielle qui vous transporte de Toronto à Atlanta, il n'y a pas de pilote à bord de cet avion ». Ils ne seraient pas contents du tout. Mais que nous disent les données? Un peu plus de 97 pour cent des écrasements d'avion sont attribuables à des erreurs humaines, pas à des erreurs des équipements. Ce sont des erreurs humaines. C'est quand les pilotes prennent les commandes qu'il y a le plus de problèmes.

Jon Lindsay: Mais qu'en est-il du capitaine Scully?

Janice Stein: Je suis désolée.

Jon Lindsay: Il y a une vision très romantique autour du rôle des êtres humains.

Janice Stein: Tout à fait, et la raison pour laquelle, comme le dit Jon, cela fonctionne si bien, c'est parce que nous avons un système stable et que les humains font des erreurs, donc il ne s'agit pas ici d'une règle générale, n'est-ce pas? Il vous faut résoudre ce problème, qui s'inscrit dans l'environnement particulier dans lequel vous vous trouvez, et comparer les avantages relatifs de la machine par rapport à l'être humain, car les deux font des erreurs et vous essayez simplement de déterminer qui est le plus susceptible de faire tel ou tel type d'erreur dans un environnement donné.

[Text appears on the screen "AI and Machine Learning in Foreign Intelligence" "Policy and regulations."]

[Un texte apparaît à l'écran : « L'intelligence artificielle et l'apprentissage automatique en renseignement étranger ».]

Martin Green: Une autre question du public. Si la capacité des gouvernements occidentaux à recueillir et à échanger des renseignements est limitée, mais que celle des grandes entreprises d'intelligence artificielle, comme Google, ne l'est pas, l'avenir du renseignement est-il entre les mains du secteur privé?

Janice Stein: Prenez les (inaudible) satellites, par exemple. Jon et moi lisons beaucoup sur ce sujet et il n'était pas possible il y a cinq ans de voir ce que vous voyiez, mais aujourd'hui, nous pouvons voir une partie de ce que vous voyez parce que des entreprises privées utilisent des satellites pour nous envoyer des images en temps réel. Cela change la donne, non? Ce n'est pas une information que vous partagez avec nous volontairement. Ainsi, c'est une entreprise du secteur privé qui le fait, et nous ne la payons même pas.

Jon Lindsay: Cela fait le lien... il y a une autre question dans la file d'attente qui concerne les sources ouvertes en général, vous savez, pas seulement les entreprises, mais sommes-nous capables d'apprendre des choses en dehors des États? Il ne s'agit pas d'une question spécifique à l'intelligence artificielle. C'est une question qui a à voir avec les données et l'information. Un des aspects particulièrement remarquables de la guerre en Ukraine est le degré de précision des sources ouvertes disponibles. Pensez à ce qui est à votre portée parmi les sources ouvertes, tout cela est bien plus détaillé que ce que je voyais au Kosovo il y a 20 ans avec toutes les sources classifiées très secret. Vraiment, c'est incroyable, non? Le public est désormais en mesure de suivre les événements. Je dirais même qu'il y a probablement un grand nombre d'endroits où les sources ouvertes fournissent des renseignements plus précis que les sources des Russes sur ce qui se passe sur le terrain, et je suis certain que les Russes eux-mêmes utilisent également ces renseignements. Nous savons que les Iraniens, après Stuxnet, ont énormément bénéficié de toutes les analyses issues de sources ouvertes. Alors, il y a de nombreuses possibilités intéressantes. Vous voyez ce que je veux dire? Par exemple, quand nous voyons des entreprises ou des mouvements en faveur des sources ouvertes qui se substituent à des opérations qui étaient réalisées il y a plusieurs décennies par la communauté du renseignement, cela ne nous renseigne pas nécessairement sur ce que vous faites maintenant, et votre valeur ajoutée consiste toujours à générer une forme d'avantage en matière d'informations privées en fonction de contexte supplémentaire et, espérons-le, vous disposez de suffisamment d'informations publiques pour vous servir de ce contexte et ne pas être distraits par des secrets. Les espions adorent les secrets, mais nous devons nous concentrer davantage sur le contexte. Alors je pense qu'une fois encore, le thème dominant de la complémentarité ressort ici. Oui, il y a beaucoup de substitutions, beaucoup de choses intéressantes qui se passent. Mais il y a encore beaucoup de choses que nous ne savons pas. Le fait que nous devions trouver comment mettre fin aux guerres est la meilleure preuve qu'il y a des choses que nous ne savons pas, si nous savions tout ce qu'il y a à savoir, il n'y aurait pas de guerre au départ. Il nous faut donc continuer à avoir ce type de processus analytiques complexes.

Martin Green: Pour moi, c'est une question fascinante et je pense que nous sommes, lorsque cela est combiné avec l'IA et certaines des technologies disponibles dans le secteur privé, je pense que nous sommes à un stade très précoce en ce qui concerne la collaboration entre les gouvernements et le secteur privé. J'inclurais le monde universitaire dans cette catégorie, je pense que c'est nécessaire, et l'autre volet auquel vous avez fait allusion est celui des sources ouvertes. Nous voyons qu'il y a des barrières culturelles au sein de la communauté du renseignement et que l'on considère que si c'est une source ouverte, c'est d'une certaine manière une source de moindre qualité, et je n'ai jamais vraiment compris cela parce que les deux vont manifestement de pair, et qu'il s'agit d'une façon de confirmer les choses. Vous voyez, si vous avez des renseignements plus secrets ou sophistiqués, le fait de les confirmer grâce à des sources ouvertes aide souvent à passer de quelque chose de probable à quelque chose de très probable. Il y a donc un potentiel énorme de discussions. Désolé.

Janice Stein: C'est aussi très intéressant, Martin, car vous avez commencé cet après-midi en disant que l'administration Biden a fait une chose sans précédent, elle a partagé des renseignements. C'est vrai, cela a été fait pour façonner le contexte informationnel. Ce qui est intéressant, c'est que cela a été possible parce qu'il y a tellement de renseignements de sources ouvertes, de renseignements sur les champs de bataille. Il y a énormément d'informations disponibles sur les déploiements de troupes russes à la frontière ukrainienne. En conséquence, le risque de porter atteinte, ou vous savez, de trahir ou de risquer de trahir une source, était bien moindre, car une grande partie des renseignements diffusés pouvait de toute façon être confirmé par des sources ouvertes. Le caractère certain de l'opération ne pouvait être confirmé, mais beaucoup d'autres choses pouvaient l'être et c'était très utile pour les observateurs.

Martin Green: Eh bien, l'une des choses que nous constatons aussi concernant les acteurs malintentionnés et les menaces, c'est qu'un grand nombre de menaces proviennent maintenant d'entreprises du secteur privé, d'individus qui n'ont peut-être pas grand-chose à voir avec le gouvernement et je crois que nous devons examiner attentivement l'obligation de tenir les gens informés. Plus vous êtes ouverts et transparents, on pourrait dire que vous faites preuve de pensée magique, mais je pense qu'en fait cela vous donne un avantage à long terme. Ainsi, plusieurs grandes questions se posent ici, alors que le monde évolue vers un monde d'autocrates uniques et imprévisibles qui sont les seuls décideurs de leur pays : l'IA et les modèles peuvent-ils vraiment fonctionner? L'analyse psychologique peut-elle être intégrée à l'intelligence artificielle et ses modèles?

Jon Lindsay: Professeure Stein, à vous la parole.

Janice Stein: Je vais répondre à cette question et ensuite je vais devoir m'excuser, Martin, car je donne un cours à l'université et je dois avoir le temps de me déconnecter et de me reconnecter. Toutefois, les modèles psychologiques sont très variés. Nous disposons de nombreuses publications sur les modèles généraux de prise de décisions de nature prévisibles. Ces types de décisions ne sont pas aléatoires, ils sont prévisibles. Or, vous pouvez avoir une très forte valeur prédictive lorsque vous déterminez ce que font les deux tiers de la population, mais cela ne vous dit pas si la personne que vous analysez fait partie de ces deux tiers ou bien du tiers qui se trouve de l'autre côté, c'est donc une illustration du problème plus général que nous rencontrons tous. Les prévisions ou les résultats généraux ne vous donnent pas de prévisions précises.

Ainsi, si vous cherchez à savoir ce que Vladimir Poutine compte faire, il n'existe aucun modèle général qui vous permette d'y répondre avec précision. Il vous faut assembler un grand nombre de pièces différentes du casse-tête et vous appuyer sur de multiples sources, ce qui nous ramène à ce que vous avez dit, Jon, tout à l'heure, à savoir que c'est là que les analystes humains continueront d'être inestimables, car ils comprennent l'histoire, la culture et le contexte. Vous voyez, si les analystes n'avaient pas lu l'article publié l'été dernier, cet article de 7 000 mots, quelqu'un aurait dû le lire et l'intégrer dans une machine et il se serait perdu parce qu'il ne s'agirait que de 7 000 points de données dans une masse de 10 millions de points de données. L'article n'aurait pas obtenu le poids qu'il méritait dans l'analyse. Ainsi, lorsqu'il s'agit de prévisions ponctuelles, ce qui est souvent le cas dans notre domaine de la sécurité internationale, je pense que les analystes humains bénéficient d'une grande sécurité d'emploi, contrairement aux radiologues, par exemple, dont la sécurité d'emploi est beaucoup plus fragile. L'intelligence artificielle fait un très bon travail pour lire des mammographies.

Jon Lindsay: Je me demande si je peux intervenir pour faire des liens entre certains des thèmes que nous avons abordés, parce que je pense que l'Ukraine est omniprésente dans nos esprits et que la communauté du renseignement a fait un travail fantastique pour évaluer les préparatifs et les intentions stratégiques derrière le lancement de cette opération. Il y a deux catégories dans lesquelles nous nous sommes radicalement trompés. La première était le rapport de force réel de ces deux forces et nous avons radicalement surestimé les Russes parce que nous n'avons pas compris l'ampleur de la faiblesse de leur doctrine et de leur expérience, et à quel point ils n'étaient pas en mesure de faire fonctionner adéquatement tout ce matériel à leur disposition, sans parler de l'état du matériel, et deuxièmement, nous n'avons pas vraiment pris en considération le fait que les Ukrainiens ont fait leurs classes pendant les sept dernières années, qu'ils ont appris à tirer, à se déplacer et à communiquer avec un haut niveau de compétence et qu'ils font preuve d'un moral et d'un courage incroyables dans des situations très difficiles. Alors encore une fois, ce facteur humain magique X était très, très différent de l'équilibre matériel des forces des deux côtés et cela a peut-être généré une grande divergence quant à l'issue de cette guerre, ce que nous réalisons maintenant à nos dépens, et ensuite, en ce qui concerne l'autre catégorie, et Janice vient d'en parler, quel est le but de cette guerre? En tant que spécialistes de la sécurité, nous avons tendance à réfléchir en profondeur à la sécurité et à y penser en matière de progrès rationnel, par exemple, avez-vous besoin d'une zone tampon, ou craignez-vous une escalade? L'OTAN vous inquiète-t-elle? Et je crois que plus nous en savons, plus nous nous rendons compte que ce n'est pas vraiment l'objet de cette guerre, n'est-ce pas? C'est une guerre sur l'identité russe, le prestige et le statut de la Russie dans le système international et sur le déclin de sa puissance alcoolique. Voilà un ensemble différent de concepts analytiques qui prennent de plus en plus d'importance, car comment expliquer autrement la volonté des Russes de briser complètement leur avenir géopolitique avec ce conflit? Encore une fois, ce sont là des questions profondément humaines et stratégiques, et c'est l'avenir de l'IA.

Martin Green: Écoutez, cela a été extraordinaire pour moi et pour les gens qui nous écoutent, je l'espère. Puis-je demander une dernière chose à chacun des professeurs? Si vous pouviez faire un peu de publicité pour vos activités. Comment les gens qui nous écoutent peuvent-ils se renseigner sur vos recherches? Que leur suggéreriez-vous?

Janice Stein: Le plus simple est de me trouver sur le site de l'École Munk. Vous y trouverez mon courriel et je me ferai un plaisir de vous lire, mais je vais vous dire au revoir, car mon cours commence dans une minute. Merci beaucoup, Martin, et Jon, qui est un ami et un collègue apprécié. Merci.

Jon Lindsay: Prenez soin de vous, et ne manquez pas la prochaine représentation de Jon et Janice qui seront à Toronto vendredi si vous passez par là. À 14 h à l'École Munk.

[Text appears on the screen "Upcoming Event!" "Mainstreaming Novel Policy Instruments" "April 26, 2022" "Visit Canada.ca/School"]

[Un texte apparaît indiquant: « Événement à venir! » « Répandre le recours aux nouveaux instruments de politique » « 26 avril 2022 » « Visitez le Canada.ca/Ecole ».]

Martin Green: D'accord, je vais conclure ici et remercier Jon et Janice, qui a une classe d'étudiants chanceux. Je voudrais souligner qu'aujourd'hui, cette série a couvert beaucoup de sujets, y compris les fondements de l'intelligence artificielle, et qu'il y a plusieurs autres événements à venir dont je n'ai pas la liste, mais vous pouvez aller sur le site Web de l'École de la fonction publique du Canada pour la consulter et, à moins que les organisateurs qui m'accompagnent pensent que j'ai manqué quelque chose d'important, je souhaite à tout le monde une bonne journée.

Jon Lindsay: Excellent. Merci infiniment Martin. J'ai apprécié votre animation, merci de m'avoir invité. C'était très agréable.

Martin Green: J'espère vous voir ou vous parler à nouveau prochainement. Merci.

[La fenêtre de vidéoclavardage s'estompe et le logo de l'EFPC apparaît.]

[Le logo du gouvernement du Canada apparaît et l'écran devient noir.]

Liens connexes


Date de modification :