Sélection de la langue

Recherche

Série L'intelligence artificielle est à nos portes : Qu'est-ce que l'intelligence artificielle? (DDN2-V05)

Description

Cet enregistrement d'événement présente une discussion sur les risques et les possibilités de l'intelligence artificielle, ainsi que sur sa capacité de transformer le gouvernement.

(Consultez la transcription pour le contenu en français.)

Durée : 01:32:12
Publié : 24 mai 2022
Type : Vidéo

Événement : Série L'intelligence artificielle est à nos portes : Qu'est-ce que l'intelligence artificielle?


Lecture en cours

Série L'intelligence artificielle est à nos portes : Qu'est-ce que l'intelligence artificielle?

Transcription

Transcription

Transcription : Série L'intelligence artificielle est à nos portes : Qu'est-ce que l'intelligence artificielle?

[Le logo de l'EFPC apparaît à l'écran.]

[Une discussion vidéo démarre à l'écran entre Taki Sarantakis, Peter Loewen et Gillian Hadfield.]

Taki Sarantakis, de l'École de la fonction publique du Canada : Bonjour, bon après-midi, bonsoir, selon l'heure à laquelle vous vous joignez à nous. Je suis Taki Sarantakis, président de l'École de la fonction publique. J'ai le plaisir de vous présenter une nouvelle série sur le thème de l'intelligence artificielle pour la fonction publique du Canada. Cette série s'intitule Artificial Intelligence, It Is Here (L'intelligence artificielle est à nos portes). À titre de fonctionnaires, il se peut que vous ne voyiez ou ne ressentiez pas sa présence, mais l'IA est bel et bien à nos portes. Ne l'attendons plus demain ou à une date ultérieure. L'IA est déjà parmi nous, et tout ce que demain nous réserve, c'est une intensification de sa présence.

Cette série est présentée en partenariat avec nos amis de l'Université de Toronto. Dans ce cas précis, nos collaborateurs proviennent de l'Institut Schwartz Reisman pour la technologie et la société, établissement relativement récent de l'Université de Toronto. Nous sommes donc très honorés d'accueillir la directrice de l'institut, Gillian Hadfield, et son directeur associé, Peter Loewen. Gillian fera d'abord quelques remarques, puis la parole ira à Peter, et nous poursuivrons avec la vidéo. À vous la parole, Gillian.

Gillian Hadfield, Chaire Schwartz Reisman en technologie et société : Merci, Taki! Nous sommes vraiment ravis de collaborer avec vous dans le cadre de cette série. L'Institut Schwartz Reisman pour la technologie et la société est un centre de recherche et de solutions dont la mission est de s'assurer que les technologies comme l'IA sont sûres et responsables, et qu'elles préparent un monde meilleur pour tous. Nous élaborons de nouvelles approches pour mieux comprendre les répercussions sociales de ces technologies puissantes et novatrices, et nous faisons en sorte qu'elles servent l'objectif global de développer des sociétés humaines pacifiques, inclusives et justes. Nous jouissons d'une position unique du fait d'avoir accès à une série d'experts de premier plan de l'IA, de la gestion du secteur public et de toute une panoplie d'autres disciplines, et nous sommes très heureux de donner cette série de séances à l'École de la fonction publique du Canada pour parler des développements récents de l'IA et des conséquences de ces développements sur nos fonctionnaires.

Dans ce premier volet de la série, je fournirai d'abord une vue d'ensemble du paysage actuel de l'IA, y compris ses applications généralisées et les différences entre les nouvelles méthodes d'apprentissage automatique ainsi que les approches précédentes en matière de calcul et de prise de décisions. En deuxième partie, mon collègue Peter Loewen, directeur associé de l'Institut Schwartz Reisman et directeur de l'École Munk des affaires internationales et des politiques publiques, viendra nous parler des possibilités et des risques en matière d'IA et d'apprentissage automatique afin de soutenir et, éventuellement, de transformer le précieux travail accompli et les décisions importantes prises par les gouvernements et les fonctionnaires. Nous espérons vivement que vous apprécierez ces conférences et la table ronde qui suivra.

Taki Sarantakis : Merci beaucoup, Gillian. J'allais présenter Peter, mais Gillian l'a fait pour nous.

Peter Loewen, Université de Toronto et Chaire Schwartz Reisman en technologie et société : Tout en douceur, c'est génial!

Taki Sarantakis : Aujourd'hui, Peter est ici en qualité de directeur associé de l'Institut Schwartz Reisman. J'ajouterais qu'il a été récemment nommé directeur de l'École Munk des affaires internationales et des politiques publiques, l'un des principaux groupes de réflexion du Canada et parmi les plus importants établissements d'enseignement de l'Université de Toronto. À vous, Peter!

Peter Loewen : Merci beaucoup, je suis Peter Loewen et j'ai le plaisir de représenter l'Institut Schwartz Reisman pour la technologie et la société. Je viens vous parler des possibilités que l'intelligence artificielle présente aux gouvernements et des défis auxquels le gouvernement sera confronté pour obtenir le consentement des citoyens et mettre en place l'intelligence artificielle et en vue de tirer parti de tous ses avantages tout en gérant ses risques. J'attends donc avec impatience les discussions qui suivront les conférences, et je vous remercie infiniment de votre participation.

Taki Sarantakis : Non, c'est à nous de vous remercier, car, comme je l'ai laissé entendre au début, l'IA est déjà parmi nous. Sa présence ne fera que s'intensifier, et il faut comprendre cette réalité. Donc, ce que vous allez regarder, c'est l'une des vidéos les plus extraordinaires que j'ai eu la chance de visionner sur l'IA. Elle comporte deux parties. Dans la première, Gillian nous explique avec brio les principes de base de l'intelligence artificielle. Tout ce que vous avez à faire, c'est d'écouter en tant que généraliste intéressé. À la fin de la vidéo, vous en saurez beaucoup plus sur l'IA qu'auparavant, avant de passer au prochain segment. Nous passerons ensuite la parole à Peter, qui donne suite à l'introduction de Gillian sur l'IA et contextualise le tout à votre milieu de travail ainsi qu'à votre travail en tant que fonctionnaire. Encore une fois, peut-être que vous ne sentez ou ne savez pas encore aujourd'hui que vous avez affaire à l'IA, mais c'est le cas, et ce sera encore plus vrai à l'avenir. Passons donc à cette vidéo vraiment géniale et instructive sur l'IA et sur l'avènement de son utilisation au gouvernement. Et que ça roule!

[Un titre apparaît à l'écran : Série Artificial Intelligence is Here. What is AI? (L'intelligence artificielle est à nos portes. Qu'est-ce que l'IA?)]

[Gillian se tient devant un fond bleu, montrant des images représentatives pendant qu'elle parle. Les citations et mots clés dérivent sur l'écran.]

Gillian : À quoi le terme intelligence artificielle vous fait-il penser? À des robots futuristes? À des robots de type Terminator qui pourraient envahir la planète? À une intelligence désincarnée dont on pourrait tomber amoureux? Nous sommes encore loin de ce type d'intelligence artificielle, et espérons que les robots Terminator ne feront jamais régner la terreur.

Mais à bien d'autres égards, l'IA est déjà à nos portes et fait des bonds incroyablement rapides dans de très nombreux domaines. L'IA est dans le robot aspirateur qui sillonne vos planchers, dans votre téléphone et dans les appareils de reconnaissance vocale et faciale. Elle décide du contenu de votre fil d'actualité sur les médias sociaux. C'est grâce à elle que vous recevez des recommandations sur les prochaines vidéos, séries télévisées ou nouveautés musicales que vous pourriez apprécier. Peut-être que vous conduisez une voiture avec système de guidage routier alimenté par l'IA. Bientôt, les véhicules autonomes et les drones passeront des programmes pilotes à une utilisation plus généralisée. Enfin, il est possible que vous utilisiez l'IA pour régler le thermostat à la maison. C'est l'IA qui rend aujourd'hui possible un grand nombre des superbes effets obtenus sur les appareils photo de nos téléphones intelligents et des fonctions de vidéoconférence auxquelles nous nous sommes habitués, par exemple les arrière-plans virtuels ou la mise en évidence automatique d'un intervenant, ou encore la compensation des pépins d'Internet et la possibilité d'utiliser des effets spéciaux délirants. L'IA alimente les applications qui déterminent le meilleur itinéraire à suivre pour rentrer à la maison ou pour commander un repas, une épicerie ou une course de taxi, et décide des options qui s'offrent à nous, des prix proposés et de la rapidité du service.

Les consommateurs ne sont pas les seuls à utiliser l'IA quotidiennement. Les banques et les institutions financières utilisent l'IA pour détecter les fraudes et le blanchiment d'argent et pour évaluer la cote des demandeurs de prêts. De nombreuses entreprises utilisent des agents conversationnels alimentés par l'IA pour le soutien aux clients. Les détaillants en ligne utilisent l'IA pour décider des produits en vedette sur leurs sites. L'IA aide à coordonner la logistique du transport et de la livraison, à automatiser les paiements, à surveiller les employés, à examiner les demandes d'emploi et à planifier les entretiens, à lire, trier et répondre aux courriels, aux contrats et autres documents.

L'avenir de l'IA est fort prometteur. Les systèmes d'IA peuvent déjà diagnostiquer certaines maladies plus rapidement et de manière plus fiable que les médecins humains, et des systèmes encore plus robustes sont mis au point pour suivre les patients et recommander des stratégies de traitement optimales qui amélioreront les soins de santé. Les villes étudient la possibilité d'utiliser l'IA pour rendre les bâtiments, les systèmes de transport et les services publics plus intelligents. Les écoles, les collèges et les universités se tournent vers l'IA pour améliorer l'enseignement grâce à des applications intelligentes de tutorat et d'évaluation. Certains mettent l'IA à l'essai pour recenser les enfants exposés à des niveaux élevés de plomb, les femmes enceintes présentant un risque de complications de l'accouchement ou les bâtiments qui pourraient enfreindre le code du logement, de sorte que les personnes à risque puissent bénéficier en priorité des ressources et du soutien de la collectivité.

Au moins une grande ville met actuellement l'IA à l'essai pour aider à tirer parti des réseaux sociaux des jeunes sans-abri en relevant les pairs influents qui peuvent s'avérer les plus efficaces pour relayer des renseignements sur la santé, par exemple sur les moyens d'éviter la propagation du VIH. L'IA pourrait permettre d'améliorer la sécurité aux frontières, de suivre les changements climatiques, de mettre au point de nouveaux médicaments et matériaux, et d'examiner des demandes dans tous les domaines, depuis les impôts jusqu'à l'immigration, en passant par la sécurité sociale. L'IA pourrait transformer nos tribunaux et nos processus de règlement des litiges, ainsi que la manière dont nous concevons les politiques publiques et organisons les élections.

[« Comment fonctionne l'IA? »]

L'IA ouvre la porte à d'extraordinaires transformations. Or, ces transformations représentent aussi un défi aussi bien pour les non-informaticiens que, parfois même, pour les informaticiens. C'est une nouvelle technologie, à bien des égards inédite, qui ouvre la voie à plusieurs possibilités, ainsi qu'à des risques que nous n'avons jamais vraiment évalués.

Ce que j'ai appris en discutant avec les gens, l'industrie, les gouvernements et les organisations de la société civile, c'est qu'il est utile d'avoir d'abord quelques notions d'IA, de savoir « ce qui se trouve sous le capot ». C'est donc sur cet aspect que je me concentrerai aujourd'hui.

Commençons par quelque chose que nous connaissons bien : la programmation informatique. Même si vous n'êtes pas un programmeur, même si, comme moi, vous ne connaissez rien du code informatique, vous avez probablement une compréhension intuitive adéquate du fonctionnement des ordinateurs. Lorsque nous programmons un ordinateur, nous lui dictons exactement ce qu'il doit faire avec les données qu'il reçoit. Le logiciel de votre programme de traitement de texte fonctionne comme suit : « si la touche Shift est enfoncée, la prochaine lettre entrée sur le clavier devient une majuscule », ou encore « Comparer chaque mot de ce document à une liste de mots correctement orthographiés dans cette liste. » S'il n'y a pas de correspondance, souligner le mot en rouge à l'écran. Essentiellement, un programme informatique est un ensemble de règles que l'ordinateur doit suivre : les règles « si... alors ». Par exemple, si la touche Shift est enfoncée, alors il faut une majuscule. S'il y a une faute d'orthographe, alors il faut une ligne rouge. Si X, alors Y. Jusqu'à présent, c'est le principe sur lequel l'informatique tout entière reposait, même dans les systèmes les plus complexes et puissants, par exemple dans les ordinateurs qui font voler les avions. Quelqu'un a indiqué à l'ordinateur ce qu'il doit rechercher et ce qu'il doit faire avec ce qu'il trouve. Même si un code comporte des milliers de lignes, chacune est écrite par un humain, et le programmeur peut relire son code et trouver exactement à quel endroit il demande à la machine de faire Y lorsque X.

Réfléchissons maintenant à ce que cela signifie quant à l'utilisation dont nous faisons des ordinateurs. Supposons que nous voulions trouver toutes les personnes d'une ville qui n'ont pas été vaccinées et les mettre sur une liste de personnes avec qui la santé publique doit communiquer. Nous programmons ou demandons probablement à quelqu'un de programmer un ordinateur pour qu'il passe en revue un ensemble de données composées de dossiers de vaccination pour générer une liste, ou, mieux encore, pour organiser des visites à domicile de gens non vaccinés par des agents de la santé publique, selon le quartier où ils se trouvent. Nous avons le contrôle total. Il n'est pas si difficile de comprendre ce que fait l'ordinateur. Si quelque chose tourne mal, par exemple si l'on considère que de donner à l'ordinateur une liste des personnes vaccinées constitue une atteinte à la vie privée, si les agents de santé publique favorisent certains quartiers au détriment d'autres quartiers ou s'ils enfreignent les règles en matière d'emploi, nous savons à qui nous adresser. Nous savons qui est responsable. C'est la personne qui a indiqué à l'ordinateur, le programmeur, ce qu'il doit faire, et il est raisonnable de tenir cette personne ou ce service responsable, car il n'est pas déraisonnable de lui demander d'accorder une attention aux instructions qu'elle envoie à l'ordinateur.

Certains ensembles d'instructions peuvent être très complexes, par exemple les programmes qui permettent aux avions à voler en pilote automatique. Il faut cependant se rappeler que ces instructions complexes ont été élaborées par des experts humains, par exemple des ingénieurs en aérospatiale, et qu'elles ont été mises à l'essai par d'autres experts pour s'assurer qu'elles se comportent comme prévu. Des accidents peuvent se produire, mais le risque est généralement connu et raisonnable. Et c'est ce que l'IA moderne est en voie de changer.

L'IA, qui transforme presque tout ce que nous faisons, écrit ses propres règles. L'IA accomplit des exploits plutôt étonnants, mais nous n'exerçons pas le même type de contrôle sur celle-ci que sur la programmation conventionnelle. Il est difficile de comprendre pourquoi l'IA fait ce qu'elle fait, et il est encore plus complexe de trouver comment tenir les humains responsables de ce que fait l'IA. C'est pourquoi il est si difficile de déterminer comment utiliser l'IA au sein du gouvernement et comment réglementer son utilisation dans l'industrie et la société civile.

J'entends certains se demander « pourquoi créer ou utiliser une IA si elle est si difficile à contrôler et à comprendre? » Pourquoi ne pas s'en tenir à une IA fondée sur des règles écrites par des humains? C'est d'ailleurs ainsi qu'ont débuté les premiers efforts pour créer l'intelligence artificielle dans les années 50. Les informaticiens cherchaient à écrire toutes les règles pour qu'un ordinateur puisse résoudre un problème, par exemple la conduite d'une voiture ou une partie d'échecs. Ce type d'IA, parfois appelé Good Old-Fashioned AI ou « GOFAI », a permis de réaliser d'importantes percées. C'est le type d'IA qu'utilisait l'ordinateur Deep Blue d'IBM, qui a battu Garry Kasparov, champion du monde d'échecs en 1997. Éventuellement, il est clairement apparu qu'il est trop difficile d'écrire toutes les règles, de sorte que les progrès dans le domaine de l'IA ont été très lents.

Or, en 2012, la vieille stratégie consistant à esquiver un problème a donné lieu à une nouvelle solution. Il ne faut plus chercher à écrire les règles. Il faut plutôt voir si la machine peut comprendre les règles. C'est ce qui a donné lieu à l'apprentissage automatique, l'approche moderne en matière d'IA. Au lieu d'indiquer à la machine ce qu'elle doit faire, le programmeur lui fournit de nombreuses données sur la tâche qu'il veut qu'elle accomplisse, ou l'objectif souhaité. La personne programme ensuite la machine pour qu'elle traite toutes ces données et détermine les règles les plus efficaces pour qu'une autre machine ou un autre programme atteigne l'objectif fixé.

Ainsi, au lieu de donner une règle à la machine, par exemple « si un nom est absent de la liste des personnes vaccinées, la mettre sur une liste prioritaire pour que la santé publique communique avec elle », nous fournissons à la machine de grandes quantités de « données d'apprentissage » : taux de vaccination, taux d'infection, données démographiques, services médicaux, recherches en ligne, habitudes de voyage, etc. Ce sont des données historiques, des données du passé. Ensuite, nous demandons à la machine, par exemple, « quelle règle relative aux priorités de la santé publique aurait permis d'abaisser les taux d'infection aux valeurs souhaitées dans ces données historiques? ». La machine décide alors des règles « si... alors » qu'il aurait été préférable d'utiliser.

Comment la machine accomplit-elle ceci? Essentiellement par essai et erreur. Tout commence par une supposition aléatoire, par exemple « les recherches en ligne sur les médicaments contre la toux sont de bons indicateurs de taux d'infection ». Ensuite, la machine établit comment un modèle fondé sur cette supposition réussit à prédire, dans ce cas-ci, les taux d'infection. Bien entendu, elle y arrive très mal au départ. La machine ajuste alors le modèle. Elle effectue quelques mises au point, accorde un peu plus de poids aux données. Par exemple, elle consulte les dossiers médicaux sur les facteurs de risque sous-jacents dans la communauté, comme le diabète. Puis elle vérifie si cela fonctionne mieux. Elle se demande s'il n'y a pas lieu d'évaluer dans quelle mesure les habitants de ce quartier utilisent les transports en commun. C'est comme expérimenter des recettes en cuisine. Peut-être un peu plus de sel? Non, moins de sel! C'est ainsi que la machine poursuit, en ajustant le modèle. Des millions d'ajustements pourraient être nécessaires. À un certain point, si nous lui fournissons d'assez bonnes données d'apprentissage, elle parviendra à bien prédire ce que nous lui demandons. Ensuite, nous pouvons utiliser le modèle que le système d'apprentissage automatique a créé en s'exerçant à prédire les données d'apprentissage, en lui fournissant des données du monde réel. Nous voulons choisir les données nouvelles que nous fournissons à la machine.

Cela permettrait ainsi de donner à notre modèle de santé publique des données actuelles sur les taux d'infection, la vaccination, les transports en commun, les recherches en ligne, entre autres, et lui demander de nous recommander quoi faire, par exemple où affecter nos ressources de santé publique. Donnez-lui les X, et laissez-la nous dire les Y en fonction des règles qu'il a élaborées. Si nous pensons que c'est vraiment bien, nous pourrions même convertir cette recommandation en une décision automatisée, qui passera directement du modèle d'apprentissage automatique à l'oreille de l'agent de santé publique.

Parfois, l'apprentissage automatique semble faire de la magie. Il voit des choses, des modèles dans les données que nous, les humains, n'avions pas vus, ou dont nous n'avions pas connaissance. Et c'est précisément pourquoi il a été si difficile d'écrire toutes les règles. Nous ne savions pas qu'il existait une relation invisible entre l'utilisation du transport en commun et les taux d'infection, sauf peut-être dans certains quartiers, lorsque les autobus sont plus bondés. Lorsque l'ordinateur Deep Blue d'IBM a battu Garry Kasparov en utilisant « la bonne vieille IA », chaque mouvement de la machine avait été réfléchi par un humain. C'est de là que proviennent les règles utilisées par la machine. Lorsque DeepMind de Google a bâti AlphaGo, un programme informatique fondé sur l'apprentissage automatique pour affronter Lee Sedol en 2016, champion du monde au jeu de go, la machine a surpris tout le monde. La machine a réussi des coups brillants qu'aucun humain n'avait jamais imaginés.

Mais c'est juste un jeu, non? En 2020, AlphaFold de DeepMind, fondé sur la même technologie d'IA qu'AlphaGo, a réalisé une percée scientifique majeure en découvrant le secret de la prédiction de la structure 3D des protéines, un défi que les biologistes humains s'efforçaient de résoudre depuis 50 ans et qu'ils n'étaient pas certains de pouvoir un jour relever. Comme l'a affirmé un biologiste évolutionniste, « cela va changer la médecine. Cela va changer la recherche. Cela va changer la bio-ingénierie. Cela va tout changer. »

L'IA nous confronte à ce compromis. Elle peut faire des choses que nous n'aurions jamais osé imaginer, et ses bienfaits pourraient être énormes. Or, elle accomplit ceci en faisant des choses que nous n'arrivons pas à prédire ou à comprendre. C'est le défi que nous devons maintenant relever. Comment éviter qu'une technologie si puissante fasse plus de mal que de bien?

[« Comment les modèles sont-ils créés? »]

Examinons un peu le pipeline de l'IA, où sont faits les choix qui déterminent comment l'IA fonctionne et qui permettent d'équilibrer les avantages et les coûts. Vues de haut, les choses apparaissent comme ceci : l'ordinateur reçoit des données d'apprentissage et applique des algorithmes d'apprentissage automatique, à savoir des règles permettant de trouver les meilleures règles. À travers des millions d'itérations, le modèle produit un ensemble d'affirmations « si... alors ». Il est ensuite déployé, puis on lui fournit des données actuelles pour qu'il fasse des prédictions, des recommandations ou des décisions réelles. Certains pensent qu'à l'entrée du pipeline se trouvent les données d'apprentissage, mais il faut selon moi remonter à la décision même de créer l'IA dans un but précis. Qui prend des décisions réglementaires? Quel genre d'IA voulons-nous créer? C'est là qu'il est essentiel que les responsables des politiques, du gouvernement et de la société civile prennent part au processus.

À l'heure actuelle, la plupart des IA créées le sont en réponse à des incitations financières, notamment la demande du marché perçue par les géants des technologies. C'est pourquoi une grande partie de notre IA actuelle se fonde sur l'élaboration de meilleures techniques de publicité ciblée. C'est le modèle économique qui permet de monétiser une grande partie de l'économie numérique. Je suis un économiste. J'ai un faible pour les marchés, et je reconnais qu'une publicité mieux ciblée peut améliorer les biens et services et accroître la consommation. L'IA, dans son incarnation actuelle, est devenue un incroyable et puissant moteur de choses moins désirables. Par exemple, elle cible des messages politiques pour propager des théories du complot et de la désinformation, ou cherche à rendre les gens dépendants de leur téléphone et de leur écran et à les inciter à continuer de faire défiler leur écran.

Si nous voulons que l'IA nous aide à résoudre de vrais problèmes, à améliorer les services gouvernementaux, à rendre nos systèmes juridiques et administratifs plus équitables et plus accessibles, à rendre nos collectivités plus saines et plus sûres et notre planète plus durable, alors il faut commencer à prêter attention à ce qu'il y a à l'entrée du pipeline. L'IA doit être davantage construite selon les spécifications du secteur public, plutôt que du privé. Pour les gouvernements, cela suppose une combinaison d'investissements publics, de politiques en matière d'IA et approvisionnement en IA ainsi que des partenariats public-privé du type utilisé pour bâtir des infrastructures publiques. Nous devons tous faire preuve de créativité pour nous assurer que l'IA que nous obtiendrons est celle dont nous avons besoin.

[« Qu'est-ce qu'il y a dans un ensemble de données? »]

Voyons maintenant les choix qui s'imposent relativement aux données. Il y a d'abord les données utilisées pour bâtir l'IA. Supposons que nous voulions bâtir une IA pour mieux prédire le risque de mortalité aux soins intensifs afin d'aider le personnel et les hôpitaux à prendre de meilleures décisions. Les données des dossiers de santé électroniques sont un bon point de départ. Nous demandons à un grand hôpital, à un système de soins de santé ou à une compagnie d'assurance de partager ces dossiers avec nos développeurs d'IA, et nous demandons à ceux-ci de créer un modèle capable de prédire les événements de mortalité, soit les décès survenus aux soins intensifs ou après la sortie de l'USI, qui est une entrée dans le dossier de santé électronique, en utilisant tous les autres renseignements du dossier médical du patient.

Ces données seront divisées en trois ensembles. Les données d'apprentissage constituent le premier ensemble, et le plus important. Les renseignements issus de ces données sur les événements de décès constituent la variable de sortie que le modèle d'IA cherchera à prédire en utilisant tous les autres renseignements de l'ensemble en tant que variables d'entrée. Les données de validation forment le second ensemble. Ce sont les données utilisées pour s'assurer que le modèle apprend à effectuer de bonnes suppositions. Les erreurs commises par la version actuelle du modèle pour prédire la mortalité dans l'ensemble de validation indiquent aux développeurs qu'ils doivent continuer à ajuster les réglages. L'objectif est de diminuer le taux d'erreur. Le troisième ensemble est l'ensemble d'essai. C'est à cette étape que les développeurs de l'IA vérifient ce qu'ils croient être le modèle définitif. Ils ne reviennent pas en arrière pour ajuster le modèle après avoir vu ces résultats, car ce serait tricher. Nous voulons un modèle performant. Le taux d'erreur de prédiction de la mortalité révélé par l'exécution du modèle sur l'ensemble d'essai est un bon indicateur de ce qui se passera en apposant le modèle à de nouvelles données inédites dans le monde réel.

Vous en savez maintenant plus ce que vous auriez aimé savoir sur les données. Mais ce que je veux que vous voyiez, c'est que de nombreuses décisions sont prises ici quant aux données qui sont utilisées et comment elles sont utilisées. Il n'y a pas que les informaticiens qui doivent participer à cette prise de décisions. Comment un ensemble de données est-il créé? Que contient le dossier de santé électronique? Qu'est-ce qu'il ne contient pas? Qui figure dans l'ensemble des données? Qui n'y figure pas? Si nous formons le modèle à partir des données d'un riche hôpital de banlieue, il risque de ne pas bien s'appliquer à des populations de collectivités rurales ou urbaines plus diversifiées. Si les ensembles de données sont trop petits ou trop restreints en raison des obstacles au partage de données mis en place par les hôpitaux pour protéger les secrets commerciaux ou par les avocats qui s'inquiètent des questions de responsabilité ou de surveillance de la vie privée, alors d'importantes données variables pourraient ne pas y figurer, ou ils ne seront tout simplement pas assez étoffés pour fournir un bon éclairage. Qu'en est-il des données d'essai? Qui décide de ce qui constitue un ensemble de données suffisamment représentatif? Qui s'assure qu'il n'y a pas eu de tricherie pendant son développement? Qui effectue les essais pour s'assurer que les performances mesurées ne sont pas le fruit du hasard? Ces questions ne relèvent pas seulement des informaticiens. Les décideurs politiques doivent aussi y répondre.

Lorsque nous disposerons d'un modèle capable de faire des prédictions efficaces, il faudra alors déterminer si, où et comment le modèle doit être déployé. Qui décidera si un système d'IA est adapté à son objectif, sûr et suffisamment équitable pour être utilisé? Comment les décideurs arriveront-ils à cette décision? Quelle sera la relation entre le système d'IA et l'État? Le système d'IA se limitera-t-il à faire des recommandations pour que les humains prennent des décisions? Deviendra-t-il un système de décision automatisé? Comment les humains s'assureront-ils qu'il fonctionne comme prévu? Les humains feront-ils trop ou pas assez confiance aux recommandations des machines? Si le système fondé sur l'IA commet une erreur qui mène à un préjudice, le saurons-nous? Qui sera tenu responsable? Nos systèmes de reddition de comptes fonctionneront-ils lorsque les utilisateurs de la machine, ou ceux qui cherchent à établir à qui est la faute, comprennent mal son fonctionnement? Ce sont des questions très complexes. Je suis persuadé qu'on trouvera les réponses à ces questions.

Cependant, nous devons nous atteler à la recherche et à l'élaboration des politiques nécessaires pour obtenir ces réponses. Il existe aujourd'hui un vide réglementaire quasi total autour du développement et du déploiement de l'IA. Tout se passe très vite, et c'est parmi les principales raisons pour lesquelles les gouvernements et décideurs doivent s'intéresser à l'IA et prendre les choses en main. Imaginez que l'IA contribue à réduire la mortalité et améliore les soins de santé. Presque tous les travailleurs de la santé sont titulaires d'une licence quelconque, sauf les développeurs de systèmes d'IA. Chaque médicament et dispositif médical utilisé a été mis à l'essai et certifié par des entreprises et des organismes indépendants spécialisés dans les essais et la certification. Or, aucun de ces systèmes n'est actuellement en place pour l'IA. On peut facilement croire qu'il suffit que les gouvernements interviennent et interdisent l'IA. Or, cela pose au moins trois problèmes importants.

D'abord, nous renoncerions à tous les éventuels avantages de l'IA. C'est un peu comme si nous avions dit non à la révolution industrielle il y a 200 ans. Nos économies fonctionnent plutôt bien aujourd'hui, mais plusieurs milliards de personnes vivent dans la pauvreté à travers le monde. Nous sommes confrontés à d'énormes défis en matière de santé, de durabilité, de droits de l'homme et de paix entre les sociétés. L'IA ne résoudra pas tous nos problèmes, mais elle peut définitivement nous aider. Imaginez le monde de possibilités qui s'ouvrira à nous lorsque l'IA aidera à diagnostiquer des maladies dans des collectivités isolées et à suivre la qualité de l'eau mieux que nous ne le pouvons actuellement.

Deuxièmement, il n'y a pas vraiment de moyen d'arrêter l'IA. Il est très difficile de tracer la ligne entre ce qui est et ce qui n'est pas une utilisation de l'IA. Supposons que nous disions, comme nombre de mesures législatives prises à travers le monde cherchent à le faire, que les gouvernements ne devraient pas recourir à la prise de décisions automatisée. Les gouvernements ont déjà beaucoup recours à des processus automatisés de prise de décisions. Un algorithme n'est qu'une règle définissant comment traiter les données. Les systèmes de cotation du risque qui indiquent aux fonctionnaires comment décider à qui accorder un prêt pour petite entreprise ou qui est mis en liberté conditionnelle fonctionnent sur la base d'algorithmes et peuvent constituer des systèmes automatisés de prise de décisions. Est-il préférable que ces systèmes soient fondés sur l'observation de données, sur une analyse conventionnelle des données ou sur l'apprentissage automatique?

Enfin, il n'y a aucun moyen d'empêcher l'industrie d'utiliser l'IA. L'IA est ce que nous, économistes, qualifions de technologie à usage général. Elle peut nous aider à faire à peu près tout. En fait, beaucoup n'y voient pas une forme de technologie, car elle n'est pas en soi incorporée à un produit ou une machine. Ils y voient plutôt une approche en matière de résolution des problèmes, ou une façon de comprendre les données. L'industrie continuera de créer des IA, et on ne pourra rien faire pour l'arrêter. Les gouvernements peuvent interdire des utilisations particulières des données, par exemple l'utilisation de logiciels de reconnaissance faciale par la police ou les détaillants, mais il sera presque impossible de rester au fait de toutes les utilisations possibles de l'IA.

Revenons donc à la question principale. Comment éviter que cette technologie puissante fasse plus de mal que de bien? Répondre à cette question exige une nouvelle façon de penser, non seulement de la part des informaticiens, mais aussi des spécialistes des sciences sociales, des humanistes et des responsables des politiques. En fait, il est essentiel pour ceux d'entre nous qui ne sont pas informaticiens de comprendre comment l'IA est créée et réglementée, et d'y prendre part. La technologie brute de l'IA peut être difficile à prévoir. Or, cela ne signifie pas que c'est ainsi qu'elle est ou sera utilisée ou déployée dans le monde. Nous devons rester maîtres de la situation. La biologie des médicaments complexes, comme les vaccins à ARNm, est difficile à prévoir. Cela suppose de mettre au point des moyens efficaces de mettre les médicaments à l'essai et d'exiger que des essais soient menés avant de les administrer. Il est très ardu de déterminer à quel moment il est judicieux d'utiliser l'IA et comment le faire, comment la bâtir de la manière la plus efficace et comment la réglementer. C'est un problème auquel nous pouvons et devons réagir. Nous sommes tous concernés. Chacun d'entre nous doit mieux comprendre ce qu'est l'IA et comment elle fonctionne. Les informaticiens excellent dans ce qu'ils font, mais pas dans ce que le reste d'entre nous faisons. Aussi, nous devons travailler ensemble pour créer une IA qui profite à tous.

[La vidéo revient à l'écran titre.]

[« Quelles sont les perspectives et quels sont les risques de l'IA sur le plan de la transformation du gouvernement? » Peter se tient devant l'arrière-plan bleu. Des images et des citations représentatives apparaissent en fondu pendant qu'il parle.]

Peter Loewen : Merci de vous joindre à moi pour cet entretien. Je m'appelle Peter Loewen. Je suis professeur à l'Université de Toronto et directeur associé de l'Institut Schwartz Reisman. Je suis très heureux d'organiser cette série sur l'intelligence artificielle et le gouvernement aux côtés de notre directrice, Gillian Hadfield. C'est un sujet qui me passionne particulièrement vu les perspectives prometteuses de l'intelligence artificielle et de l'apprentissage automatique pour les gouvernements. C'est aussi un sujet important, car cette promesse s'accompagne de risques profonds et délicats. Des risques gérables, certes, mais des risques tout de même. Ce bref exposé vise à vous donner un cadre de réflexion sur la façon dont l'intelligence artificielle et l'apprentissage automatique pourraient changer le gouvernement, sur les risques que cela suppose et sur les secteurs où nous pourrons la déployer le plus efficacement possible. Non seulement parce que cela rendra le gouvernement plus efficace ou plus rentable, mais aussi parce que cela pourrait améliorer le gouvernement et les services publics qui le soutiennent.

Avant tout, j'aimerais que vous réfléchissiez à votre travail. En fait, je vais vous donner une petite mission pendant que vous regardez cette vidéo. J'aimerais que vous pensiez au travail que vous effectuez chaque jour. La fonction publique compte des centaines de milliers d'employés. Dans ce contexte, les tâches à accomplir sont très diverses, et les domaines dans lesquels ces tâches s'inscrivent au sein de la grande bureaucratie sont remarquablement variés. Tout ça est presque inconcevable! Malgré tout, je crois qu'il y a des éléments communs aux tâches que vous accomplissez, et c'est en posant des questions par rapport à ces tâches que nous pourrons mieux comprendre comment l'intelligence artificielle et l'apprentissage automatique peuvent être employés au gouvernement. Ces questions sont les suivantes :

D'abord, êtes-vous capable de gérer toutes les décisions que vous devez prendre chaque jour? Vous sentez-vous dépassé par la situation? Ensuite, comprenez-vous pourquoi on vous demande de prendre ces décisions? Savez-vous comment prendre ces décisions d'une manière équitable et conforme à l'éthique de la fonction publique? Comprenez-vous comment vos décisions s'inscrivent dans nos grandes valeurs démocratiques? Enfin, tirez-vous des enseignements des décisions que vous prenez? Passez-vous simplement à la prochaine série de décisions, sans savoir si vous êtes sur la bonne voie?

Pour vous aider à mieux comprendre, imaginez trois personnes différentes qui ont à prendre des décisions. Prenez d'abord à un travailleur de première ligne qui vérifie l'admissibilité à l'assurance-emploi d'une personne dont le dossier a été mis à l'étude. Prend-il de telles décisions en une seule journée? Une autre a pour mandat de déterminer si certaines demandes de résidence ou d'immigration doivent être privilégiées par rapport à d'autres. Comment cette personne sait-elle quels sont les critères exacts sur lesquels ses choix doivent s'appuyer lorsqu'elle a une connaissance imparfaite de ces demandeurs et d'où ils proviennent? La dernière est un directeur au ministère des Finances qui cherche à comprendre si de nouvelles règles fiscales entraîneront une augmentation nette des recettes. Comment peut-il s'assurer que le comportement des citoyens ou la réponse des autres États ne changeront pas au point d'invalider ses prévisions? Ce sont les divers types de problèmes épineux auxquels les gouvernements sont confrontés, et pour lesquels l'IA et l'apprentissage automatique sont très prometteurs.

[« Quatre défis fondamentaux auxquels les gouvernements sont confrontés. »]

J'espère que de réfléchir aux décisions que vous prenez quotidiennement au travail vous fera prendre conscience des défis fondamentaux auxquels les gouvernements sont confrontés lorsqu'ils prennent des décisions. Bien entendu, ces défis sont nombreux, mais je veux me concentrer sur quatre d'entre eux dans cet exposé. Je crois que ces défis ont plusieurs importantes caractéristiques en commun. Ils sont simples, voire évidents. Chacun est problématique en soi. Mais, pris ensemble, ils deviennent encore plus vexants. Ils ne touchent pas seulement les individus, mais aussi l'ensemble du gouvernement. Quels sont ces défis?

D'abord, les personnes au pouvoir doivent prendre de nombreuses décisions. Ces décisions doivent concorder avec certains buts et objectifs stratégiques. Ces décisions, en particulier celles qui ont une incidence sur la population et, plus particulièrement encore sur les individus, doivent respecter les principes d'équité procédurale et les normes démocratiques. Enfin, il faut tirer des leçons de nos décisions.

Je ne suis pas certain que ces défis concernent tous nos auditeurs, et il se peut que vous n'en reconnaissiez qu'un ou deux. Je peux cependant vous assurer que ces défis touchent votre Ministère et le gouvernement dans son ensemble. Ces défis sont collectifs et organisationnels. Permettez-moi d'expliquer un peu plus chacun d'entre eux.

D'abord, les personnes au pouvoir doivent prendre un grand nombre de décisions. Comme le dit le vieil adage, « gouverner, c'est choisir ». Généralement, cela signifie que les politiciens doivent faire des choix, parfois importants, entre différentes options en matière de politiques. En un sens, c'est également vrai de votre travail en tant que fonctionnaires. Chaque note d'orientation rédigée qui aboutit à une ou plusieurs recommandations de mesures politiques, propose une certaine ligne de conduite. Il s'agit, en d'autres termes, de favoriser une décision par rapport à d'autres. Pour chaque dossier d'assurance-emploi examiné, une décision est prise. Parfois, cette décision sera déterministe. Un ensemble de règles sera appliqué, et aucun jugement humain ne sera exercé. Néanmoins, une décision sera prise. Ce demandeur a travaillé un certain nombre de semaines, donc elle est admissible. Or, ces règles sont elles-mêmes une espèce de décision. Chaque fois qu'un responsable politique du domaine des finances décide de la façon de procéder pour modifier une règle fiscale qu'il présentera à son ministre et que cette mesure est inscrite dans un budget puis concrétisée dans une loi, une décision a été prise. Ce ne sont là que quelques exemples, mais il n'en demeure pas moins que des millions de décisions sont prises par le gouvernement du Canada chaque année.

Ensuite, les décisions doivent concorder avec les objectifs stratégiques. Le gouvernement ne peut pas, ou à tout le moins ne devrait pas, prendre ses décisions de manière arbitraire. Les décisions doivent être prises conformément à un ensemble de politiques qui ont été articulées pour orienter ce processus. Parfois, ces orientations ou objectifs stratégiques rendent le processus particulièrement long. Permettez-moi de vous donner un exemple qui, je l'espère, soulignera cette distinction. Supposons que nous nous intéressions à la manière dont les dossiers d'AE sont évalués, en particulier lorsque les circonstances dans lesquelles une personne a quitté son poste ne sont pas claires : départ volontaire, congédiement ou mise à pied. Une politique bien élaborée offre un ensemble détaillé de lignes directrices ou de règles de décision qui aideront un agent à déterminer si la personne est admissible à l'AE. Au-delà de ces règles, certains objectifs ou principes peuvent orienter nos décisions. Par exemple, nous pourrions refuser l'assurance-emploi en cas de départ volontaire afin de décourager les gens de quitter un emploi rémunéré et de recourir à l'assurance-emploi alors qu'ils pourraient continuer à travailler. Dans ce cas, nous voulons éviter un certain aléa de moralité en raison des contraintes qu'il exerce sur le programme.

Or, il se peut qu'il y ait une autre raison ou que nous visions un objectif différent. La règle pourrait avoir été établie pour encourager les gens à travailler pour une autre raison morale ou normative. Pourquoi est-ce important? En sachant pourquoi une règle existe, en comprenant les valeurs sur lesquelles cette règle repose et les objectifs qu'elle vise, un décideur peut mieux comprendre si ses décisions sont cohérentes non seulement par rapport à des règles parfois floues, mais aussi aux objectifs généraux d'un programme. Les décisions comptent, les raisons aussi.

Troisièmement, la façon dont nous prenons les décisions au sein du gouvernement est importante. En d'autres mots, le processus est important. Les décisions, particulièrement celles qui ont une incidence sur le public et encore plus particulièrement celles qui ont une incidence sur les personnes, doivent être prises conformément aux principes d'équité procédurale et aux normes démocratiques. Le défi pour le gouvernement ne réside pas seulement dans le fait qu'un très grand nombre de décisions doivent être prises; le processus de prise de décisions doit être conforme à ce que les gens pensent être juste et démocratique. Je comprends que cela puisse paraître flou. Permettez-moi de vous donner un autre exemple.

Supposons que vous deviez garer votre voiture en toute vitesse un matin pour déposer votre enfant ou votre petit-enfant à son premier jour au camp d'été. Vous vous empressez de garer votre voiture après avoir vérifié rapidement le panneau de stationnement qui indique que vous pouvez rester garé au maximum 10 minutes. Après avoir accompagné votre enfant à l'intérieur, vous revenez à votre voiture pour y trouver une contravention. Apparemment, vous n'étiez pas autorisé à vous garer à cet endroit le lundi matin, car c'est à ce moment-là que la balayeuse municipale nettoie le trottoir. Vous avez reçu une contravention de 100 $. Il y a bien un panneau qui indique cette interdiction, mais celui-ci est partiellement obstrué par des arbres, et vous aviez peine à le voir. Quoi qu'il en soit, vous n'étiez là que pour un moment et la balayeuse n'est pas passée. Dans la plupart des cas comme celui-ci, vous pouvez faire appel de la décision.

Supposons donc que vous fassiez appel de la décision et que l'on vous donne deux minutes pour expliquer votre situation devant un greffier municipal ou un juge de paix. Le greffier ne semble pas écouter vos explications attentivement. Il regarde son téléphone, ou ne vous regarde pas du tout et se contente de regarder par la fenêtre. Comment vous sentiriez-vous dans une telle situation? Auriez-vous l'impression d'avoir été dûment entendu? Je crois que beaucoup d'entre nous répondraient par la négative. Nous nous sentirions méprisés, non écoutés, traités injustement. On peut même en déduire que le greffier allait refuser d'entendre notre dossier. Imaginons maintenant que le greffier ou le juge de paix, malgré son manque d'attention, décide d'annuler votre contravention. Vous sentiriez-vous bien? Probablement. Après tout, vous économiseriez 100 dollars. Mais je ne crois pas que vous vous sentiriez parfaitement bien. Vous auriez le sentiment que la décision n'a pas été prise de la bonne manière, peu importe le résultat. La façon dont vous avez été traité ne correspondait pas au niveau de respect, au niveau d'équité et au sérieux que vous êtes en droit d'attendre de cette institution. D'instinct, les humains savent non seulement les résultats qu'ils préfèrent, mais aussi comment ces résultats devraient être obtenus. Ceci, je l'espère, illustre un peu l'un des défis liés à la prise de décisions au sein du gouvernement. Le public se soucie non seulement des décisions prises, mais aussi du processus décisionnel.

Supposons que vous décidiez de flâner un peu dans la salle d'audience pour voir les autres décisions prises par ce greffier. Quelqu'un qui vous ressemble étrangement entre dans la salle. Cette personne a reçu la même contravention que vous une semaine avant. Imaginez que le juge traite cette personne comme il vous a traité, avec le même genre d'indifférence distraite. Comment vous sentiriez-vous si vous constatiez ensuite que la personne n'a pas vu sa contravention annulée et qu'elle a dû payer les 100 $? Seriez-vous contrarié non seulement par le décorum du greffier, mais aussi par son incohérence, même si vous avez bénéficié de cette incohérence? Bien sûr que oui. Le défi consiste donc non seulement à faire en sorte que les décisions soient bien exécutées sur le plan procédural, mais aussi qu'elles soient cohérentes.

Enfin, il faut tirer des leçons de nos décisions. Cela peut sembler évident, voire idiot, mais c'est important, et c'est vrai. Comment tirer des leçons des décisions que nous prenons? En termes bruts et simples, il s'agirait d'évaluer à quel genre de décision nous nous attendons, pourquoi nous attendons une telle décision, puis d'observer comment la décision a été prise. Nous mettons ensuite à jour nos croyances concernant cette ligne d'action et peut-être d'autres lignes d'action connexes. Plus facile à dire qu'à faire! Cela pose plusieurs défis.

Tout d'abord, nous devons disposer de données sur le résultat de notre décision. Ces données ne sont pas toujours à portée de main. Ensuite, il y a le problème que les spécialistes en sciences sociales qualifient de « problème fondamental de l'inférence causale » ou de « problème fondamental de la séparation du coût et de la corrélation », qui fait que nous devons savoir quel aurait été le résultat si la décision avait été différente. Puis, nous devons avoir le temps d'examiner les données. Enfin, nous devons déterminer quelles croyances ou quels modèles du monde ont motivé la décision en premier lieu. Il faut alors mettre à jour ces croyances ou des modèles. L'apprentissage est très, très difficile, mais pas impossible. Cela ne signifie pas qu'il est impossible de prendre de bonnes décisions. Il est possible de le faire, et c'est régulièrement le cas. Peut-on cependant améliorer le processus décisionnel? Comment l'IA et l'apprentissage automatique permettront-ils d'améliorer ce processus?

[« Les promesses de l'IA et de l'apprentissage automatique pour les gouvernements »]

Parlons maintenant des promesses de l'intelligence artificielle et de l'apprentissage automatique. L'intelligence artificielle et l'apprentissage automatique ont le potentiel d'entraîner des avancées importantes pour tous ces défis. Mon intention n'est pas seulement de vous donner des exemples de la façon dont ils pourraient résoudre ces défis. Nous aurons l'occasion de le faire dans d'autres présentations, et dans nos échanges. J'aimerais plutôt aborder la logique derrière la manière dont ces technologies peuvent contribuer à la prise de décision. D'abord, l'apprentissage automatique et l'IA peuvent nous aider à automatiser les décisions au moyen d'une série de règles de décision ou de règles de prédiction. On fournit aux systèmes certaines données, et ils prennent une décision. Par exemple, un modèle pourrait être élaboré pour déterminer les facteurs qui font en sorte qu'une petite entreprise rembourse un prêt avec succès. Si ces facteurs peuvent être mesurés, ils peuvent ensuite être ajoutés dans un modèle qui déterminera à quelles petites entreprises le gouvernement devrait accorder un prêt. Nous pourrions aussi nous appuyer sur une série d'algorithmes pour faire des recommandations et confier aux décideurs, assistés par l'IA et l'apprentissage automatique, le soin de prendre la décision finale.

Ce genre d'exemple peut sembler évident. Ne nous appuyons-nous pas déjà sur des règles de décision? Après tout, les petites entreprises demandent des prêts. Et elles soumettent avec leur demande de prêt des données sur leurs revenus, leur plan d'affaires, leur pointage de crédit. Alors, quoi de neuf ici? Eh bien, il y a trois choses.

Premièrement, l'automatisation du traitement de ces facteurs pourrait accroître la rapidité de la prise de décision. Après tout, les machines ne se fatiguent pas et leur puissance de calcul est nettement supérieure à celle des humains, même si elle est parfois moins complexe. Deuxièmement, un facteur aussi important que la vitesse est la cohérence des décisions. Avec les mêmes paramètres et les mêmes données, une machine prendra toujours les mêmes décisions. On ne peut pas dire la même chose des humains. Nous sommes constamment influencés par de petits changements dans notre environnement, dans notre humeur ou par d'autres facteurs non pertinents. Ou par les caractéristiques d'une décision qui modifieront notre décision. Parfois, ces facteurs non pertinents ont trait à des préjugés, qui peuvent causer un préjudice important. Dans d'autres cas, quelque chose d'aussi arbitraire que la température ou la faim affecte notre humeur. Entre ces deux exemples, il y a toutes sortes de facteurs qui peuvent nous faire prendre une décision un jour et une autre le lendemain, sans que les faits aient changé. Sans que les données aient changé. Ainsi, l'une des promesses de la prise de décision automatisée est la possibilité d'exploiter les données et d'autres renseignements sélectionnés en raison de leur cohérence avec les objectifs des politiques. Ce faisant, nous pouvons aussi éliminer l'influence de sources d'information non pertinentes ou potentiellement faussées ou partiales.

Troisièmement, la prise de décision automatisée peut intégrer dans chaque décision un volume d'informations beaucoup plus important. En effet, la capacité de prendre en compte un volume considérable de données issues de décisions antérieures est au cœur des promesses de la prise de décision automatisée fondée sur les données. Les résultats de décisions où différentes approches ont été adoptées peuvent être comparés pour comprendre les résultats obtenus avec les approches A et B. Et le système peut constamment améliorer ses prédictions. Autrement dit, il peut apprendre. Et il peut le faire à un rythme beaucoup plus rapide que les humains.

L'intelligence artificielle et l'apprentissage automatique offrent des solutions pour certains des grands défis de la prise de décision de la fonction publique, à tout le moins. Toutefois, il y a des risques.

[« Les principaux risques associés à l'IA et à l'apprentissage automatique ».]

Quels sont les principaux risques associés à l'utilisation de l'IA et de l'apprentissage automatique dans la prise de décision gouvernementale? À mon avis, il y a au moins trois grands risques à miser encore plus sur la prise de décision automatisée. Il est important de bien les comprendre, car nous devons les avoir à l'esprit si nous voulons mettre en œuvre des processus décisionnels automatisés de manière efficace. Ignorer ces risques, c'est s'exposer à ce que les citoyens s'opposent à l'utilisation d'algorithmes par les gouvernements. Nous en parlerons plus longuement dans une prochaine séance. Tout d'abord, il y a le problème des données biaisées. Permettez-moi de vous donner un exemple. Imaginons que l'on divise des personnes en deux groupes, le groupe A et le groupe B. Les personnes des deux groupes demandent un prêt pour les petites entreprises. Les personnes des deux groupes ont les mêmes caractéristiques et leurs talents, leurs capacités et leurs chances de réussite sont identiques. Cependant, les personnes du groupe B sont victimes de discrimination dans le monde réel. De sorte que lorsque de vrais humains ont évalué leur potentiel, ils leur ont généralement attribué des notes plus basses. Qu'arriverait-il si nous utilisions les décisions prises par les humains pour former ou alimenter nos machines et algorithmes pour qu'ils prennent des décisions en notre nom? Selon toute vraisemblance, les machines apprendront nos préjugés et feront des prédictions tout aussi mauvaises. Il s'agit d'un problème de données biaisées. Ce n'est là qu'un exemple d'un problème général. Les problèmes liés à la qualité des données, en particulier si elle varie en fonction du groupe, de la région ou d'un autre facteur, conduiront à de meilleures prédictions pour certains groupes que pour d'autres. Les données que nous injectons dans nos modèles auront une incidence sur les résultats.

Deuxièmement, il y a le problème de l'explicabilité. Pourquoi une machine prend-elle une décision donnée? Vous pensez peut-être qu'il n'est pas important de comprendre les raisons pour lesquelles une machine prend certaines décisions. Après tout, nous dépendons d'un certain nombre de machines pour fonctionner ou atteindre divers objectifs. Nous ne nous intéressons pas beaucoup à la façon dont elles y parviennent. Qui sait vraiment comment fonctionne un climatiseur, par exemple? Mais repensez à l'exemple de la contravention de stationnement. Imaginez qu'au lieu d'être entendu par un juge, c'est une machine qui étudie votre dossier. Vous sentez-vous rassuré par le fait de savoir qu'une machine prend en compte les particularités de votre cas? Dans les affaires publiques, les raisons ont de l'importance, car elles nous révèlent des choses importantes sur les décisions qu'un acteur prendra dans d'autres situations. Et elles nous en disent long sur la confiance que nous pouvons lui accorder. Les raisons et les explications ont leur importance, car elles contribuent à la confiance envers les décideurs. Ainsi, une personne qui se voit refuser un prêt pour les petites entreprises n'appréciera probablement pas la décision, mais elle l'acceptera beaucoup plus facilement si elle est en mesure de comprendre, par exemple, ce qu'elle peut faire pour obtenir une décision favorable à l'avenir. Ou si elle comprend quels facteurs ont été pris en compte de bonne foi par les décideurs.

Enfin, et dans le même ordre d'idées, des problèmes associés au consentement et à l'iniquité de la procédure se posent aussi. Les nouvelles recherches sont très claires à ce sujet. Les citoyens sont plus susceptibles d'accepter une décision lorsqu'ils savent qu'il y a eu une intervention humaine quelque part dans le processus. Ils ont besoin de sentir qu'un autre être humain est à l'écoute pour penser que les circonstances propres à leur cas ont été prises en compte. Cela n'est pas toujours possible, mais nous devrions réfléchir à la façon dont les systèmes d'apprentissage automatique de l'IA peuvent laisser aux humains, aux fonctionnaires, le soin de mettre à profit leur jugement, d'expliquer comment les décisions ont été prises et de démontrer que l'intelligence artificielle et l'apprentissage automatique ont aidé, et non pas entravé, les décisions. Nous avons hâte d'approfondir ce sujet.

[Le titre sur l'écran disparaît et la vidéo revient à la discussion de Taki, Gillian et Peter.]

Taki Sarantakis : Voilà, c'est ça, l'intelligence artificielle. Encore une fois, Gillian nous a donné une très bonne introduction au sujet – et même plus qu'une introduction. Elle nous a donné un aperçu des principaux enjeux liés à l'intelligence artificielle d'un point de vue conceptuel et thématique. Ensuite Peter s'est appuyé sur ces éléments pour commencer à réellement approfondir ce que l'intelligence artificielle signifie pour nous en tant que fonctionnaires. Alors, j'aimerais revenir un peu en arrière, Gillian. J'aimerais commencer par le début, en quelque sorte. L'intelligence artificielle, nous commençons à y réfléchir de différentes façons. Et l'une des premières fois où j'ai vraiment eu l'impression de « comprendre » l'IA, pour ainsi dire, c'est en lisant le livre d'un de vos collègues, ou d'un groupe de vos collègues de l'Université de Toronto. Prediction Machines. Quand j'ai lu ce livre, je me suis dit, oh, maintenant je comprends. Je comprends. J'ai deux ou trois étagères de livres sur l'IA que je suis en train de parcourir, je pense que j'ai lu environ... les trois quarts de l'une des étagères. Et chaque fois que je lis un nouveau livre, je découvre un autre aspect important de l'intelligence artificielle. Ainsi, l'idée des machines à prédire est une façon de comprendre l'IA.

Une autre façon de comprendre l'IA, c'est de l'envisager un peu de la manière dont Peter et vous avez commencé à le faire. D'une manière qui nous amène à prendre une petite pause... En plus d'être des machines à prédire, nous devrions peut-être commencer à les considérer comme des machines à prendre des décisions. Alors je vous proposerais peut-être de lancer la conversation avec vos réflexions sur la nature de l'intelligence artificielle : est-il question de machines à prédire, ce qui nous amène à adopter une certaine vision, ou plutôt de machines à prendre des décisions, ce qui nous amène à adopter un autre type de vision?

Gillian Hadfield : C'est un point crucial, et cela rejoint un peu le débat que j'ai avec mes collègues. Je pense qu'il est très important de comprendre que l'intelligence artificielle fonctionne ainsi : elle fait des prédictions. Elle fait des prédictions sur ce qui va se passer si la roue de la voiture bouge un peu, ou si vous faites un prêt à une personne, à une petite entreprise. Elle peut aussi faire des prédictions sur la façon dont les humains classeront les choses. Est-ce qu'ils appelleraient cette chose là-bas, cette photo, un chat? Ou bien ils l'appelleraient un chien? Il s'agit bien de faire des prédictions. Mais je pense que ce qui est essentiel ici... parce que ça donne l'impression que c'est un processus passif, qui prédit des choses pour nous, et puis nous continuons à travailler et à vivre comme à l'habitude. Mais la remarque que vous faites sur le fait qu'il s'agit de machines à prendre des décisions est vraiment essentielle, car nous assistons à l'adoption de mécanismes de prise de décision automatisée. Et effectivement, nous nous retrouvons avec des machines qui font des prédictions : « Oh, voici la décision qu'aurait prise un humain qui aurait eu à décider d'accorder ou non cette demande ou d'admettre ou non cette personne au pays. » Nous ne sommes pas seulement amenés à prendre connaissance de la prédiction quant à la décision que prendrait l'humain, mais parfois, vous savez, nous allons simplement... mettre en œuvre la décision, envoyer une lettre pour informer une personne que sa demande a été refusée par la machine. Il s'agit d'une distinction très, très importante. Entre la simple prédiction qui alimente la prise de décision humaine, et une décision prise directement par la machine.

Taki Sarantakis : Oui, et cela nous ramène à la question suivante : l'intelligence artificielle sera-t-elle l'un de nos outils, ou deviendrons-nous nous-mêmes l'un de ses outils? Peter, je t'ai entendu parler dans différents contextes dans les deux dernières années de ce qu'on appelle le gouvernement par algorithme, une perspective qui semble inquiétante. Mais si vous y réfléchissez, d'une certaine manière, nous gouvernons tous au moyen d'algorithmes depuis très, très longtemps, depuis 1867 si l'on peut dire. Qu'entendez-vous par « gouvernement par algorithme »? Et en quoi la situation aujourd'hui est-elle différente?

Peter Loewen : C'est une très bonne question. Je vais dire deux choses à ce sujet. L'idée d'un gouvernement par algorithme, au fond, c'est l'idée que dans le processus de prise de décision du gouvernement – qui comporte plusieurs étapes, de l'élaboration de la politique à la prise de décision sur la mise en œuvre jusqu'à l'évaluation... L'idée d'un gouvernement par algorithme, c'est que dans toutes ces étapes, il est possible d'appliquer des algorithmes, des règles de décision ou des méthodes de calcul pour parvenir à une conclusion qui pourrait remplacer la prise de décision par un humain.

Par exemple – prenons un exemple que Gillian a mentionné. Supposons que nous ayons à déterminer qui obtiendra ou non la PCU. Qui devrait bénéficier d'une aide financière lors d'une pandémie? Il y a un certain nombre de critères définis. Mais ces critères comportent parfois des zones grises, non? Et qu'il s'agisse de zones grises ou non, nous pouvons imaginer un ordinateur qui dirait simplement : « Compte tenu des renseignements fournis, vous êtes admissible ». Et c'est possible qu'il n'y ait aucune intervention humaine dans le processus, n'est-ce pas? Que l'ordinateur prenne toutes ces décisions. Dans la mesure où ces décisions sont confiées à des algorithmes, des ordinateurs, plutôt qu'à des humains, on entre dans le domaine du gouvernement par algorithme.

Maintenant, ce qui est important ici, et je pense que c'est ce qui fait – pour élargir un peu, que c'est ce qui fait de l'IA un outil potentiellement très puissant pour les gouvernements, c'est que les gouvernements, comme vous l'avez évoqué, Taki, utilisent des systèmes fondés sur des algorithmes depuis longtemps. La prise de décision dans la fonction publique est très structurée. Elle fait appel à différentes étapes au cours desquelles certains processus sont délégués à diverses personnes : la collecte d'informations, l'analyse des compétences, la recension des options. Ces options sont ensuite transmises à un supérieur hiérarchique, qui prendra généralement une décision en fonction d'un ensemble restreint d'informations, parmi une, deux ou trois options. Quelqu'un pourrait examiner cette décision par la suite et déterminer s'il s'agissait d'une bonne décision ou non. C'est très différent, par exemple, d'un petit entrepreneur qui vit au jour le jour, fabrique un produit, essaie de le vendre, mais ne fait pas partie d'un environnement décisionnel très structuré.

Alors, en ce qui concerne ce à quoi nous pensons quand nous imaginons des algorithmes qui prennent des décisions. En réalité, le travail préparatoire a déjà été effectué pour le gouvernement à bien des égards. En effet, nous avons déjà des processus décisionnels très structurés qui comportent des mécanismes de reddition de comptes. Et des systèmes pour synthétiser l'information pour en faire ressortir des points centraux avec des prédictions, n'est-ce pas? Sur ce qui se passera si une politique est adoptée plutôt qu'une autre. L'idée d'un gouvernement par algorithme, c'est simplement une façon de dire que nous pourrions examiner de manière systématique comment utiliser, à toutes ces différentes étapes, des machines plutôt que des humains pour faciliter la prise de décision ou les processus qui entrent en jeu pour élaborer une politique, la mettre en œuvre ou l'évaluer.

Taki Sarantakis : Oui, parce qu'encore une fois, comme vous l'avez très bien expliqué, au gouvernement, ou du moins dans la bureaucratie – appelons cela une bureaucratie plutôt qu'un gouvernement, parce qu'un gouvernement, c'est un peu désordonné. En théorie, la bureaucratie est plus ordonnée, parce qu'elle est plus structurée. Nous utilisons des algorithmes depuis toujours. Nous en utilisions avant même la Confédération, parce qu'en réalité, dans la fonction publique et dans l'administration publique, nous avons d'abord un ensemble de règles, puis une situation spécifique. Par exemple : « Est-ce que je peux obtenir un passeport? » « Est-ce que je peux recevoir la PCU? » « Ai-je droit à l'assurance-emploi? » « Est-ce que je peux me faire vacciner? » Voici la situation particulière. Cette situation particulière est ensuite examinée par rapport à l'ensemble des règles, pour les faire correspondre. C'est ça, l'exercice de la fonction publique. Et c'est ce que beaucoup d'entre nous font, que ce soit pour statuer sur une décision de tribunal ou pour décider, en santé publique, qui doit être vacciné, qui doit recevoir un vaccin ou non.

Ainsi, nous n'avons pas à craindre la notion d'algorithme dans notre travail quotidien. Parce qu'utiliser un algorithme, c'est avoir des règles, et appliquer une certaine logique à ces règles. Mais Gillian, il y a quelque chose que tu as dit dans ta vidéo, je pense que c'est pour cela que l'on commence à se dire « oh, maintenant c'est différent ». Et j'ai vraiment aimé votre exemple des parties d'échecs, où il y avait un certain type de programme. Il nous fallait d'une certaine manière alimenter l'algorithme de Deep Blue. Ou à l'époque où l'ordinateur a battu Kasparov, la première fois. Il a fallu transmettre les données de millions ou au moins de milliers de parties d'échecs à un ordinateur et programmer des informations du type « si le cavalier fait ceci, le fou fera cela, et la reine fera cela ». Nous, les humains, avons dû coder ces renseignements à l'avance. Mais ce que nous observons de plus en plus, c'est que le véritable pouvoir de l'intelligence artificielle, ce n'est pas sa capacité à faire ces prédictions. Le vrai pouvoir de l'IA, c'est que la machine se dit simplement : « Très bien... vous n'avez même pas besoin de me dire quelles sont les règles des échecs. Alimentez-moi de parties d'échecs, je trouverai la solution. Écartez-vous, humain. Je vous montrerai comment vous en servir ».

Gillian Hadfield : Oui, c'est exactement ça. Et c'est à mon avis l'une des choses les plus importantes à comprendre dès le départ. Le premier élément que vous avez souligné, c'est que nous utilisons constamment des algorithmes. Un algorithme, c'est simplement un ensemble de règles ou de recettes qui nous dit quoi faire avec tel type de circonstances, de faits ou d'ingrédients.

Mais je pense que l'étape suivante, où l'on se dit « c'est différent maintenant », c'est que dans le processus traditionnel de programmation, avec lequel nous avons écrit ces règles, ces algorithmes, par le passé, il y avait un humain qui disait : « Voici ce que nous devrions faire ». Comme vous venez de le dire, si le roi est ici, déplacez le fou là. Tandis qu'avec l'apprentissage automatique, cela vient de la machine elle-même, comme vous le dites, nous n'avons même pas besoin de lui donner les règles du jeu. Nous n'avons qu'à lui dire : « Joue des millions de parties, on te dira quand tu auras gagné. Tu auras ainsi un petit segment d'information. As-tu gagné la partie ou non? Et ensuite, tu découvriras, machine, quelle est la meilleure façon d'atteindre cet objectif, si ce que tu cherches à faire est de gagner plus souvent. » Je pense que c'est vraiment cela l'élément transformateur – qui amène toutes sortes de nouvelles possibilités et de défis dans notre travail. Alors, le moment clé est celui où la machine dit : « Voici la meilleure façon de faire cette chose que vous m'avez dit vouloir faire : gagner des parties d'échecs. » Ou, vous savez, répartir vos ressources de la manière la plus juste et efficace.

Peter Loewen : À partir des observations de Gillian, je peux faire une analogie entre les échecs et le gouvernement. Il y a un élément très important que nous souhaitons souligner ici. Et ce que vous souligniez, Taki, c'est que ce qui arrive souvent, c'est que les gens prennent des décisions fondées sur des règles, mais ces règles impliquent des jugements, n'est-ce pas? Et souvent, ces jugements comportent des valeurs qui ne sont pas explicitement énoncées. La façon dont nous faisons les choses dans la fonction publique et les motifs de nos décisions ne devraient pas être ancrés dans des jugements préjudiciables, partiaux ou arbitraires, non? Et ces éléments ne sont pas nécessairement explicites, mais ils font partie des normes. La difficulté avec... la difficulté avec l'apprentissage automatique, c'est que lorsque la machine apprend à gagner une partie d'échecs... c'est un apprentissage qui se fait dans un environnement hautement contrôlé, n'est-ce pas? Mais dans le cas d'une machine qui commence à apprendre à partir de ce que font les humains dans le monde réel, où tout est plus confus, la crainte est que la machine puisse adopter certains des motifs les plus néfastes ou biaisés pour lesquels les humains prennent des décisions. Et la capacité des machines à apprendre nos préjugés et à les reproduire à très grande vitesse est l'une des choses les plus effrayantes – peut-être pas effrayantes, mais préoccupantes – concernant le recours à l'intelligence artificielle dans la prise de décision.

Si nous alimentons une machine avec un grand volume de données sur qui a reçu ou non un prêt, et qui a réussi à le rembourser ou non... Mais que pour diverses raisons, toutes ces données ont été corrompues par les préjugés des agents de prêts, par exemple, qui ont financé des personnes d'une ville plutôt qu'une autre, d'un groupe plutôt qu'un autre ou d'un niveau de revenu plutôt qu'un autre. D'une manière qui n'était pas conforme à nos valeurs. La machine ne détectera pas que ces décisions étaient incompatibles avec nos valeurs. La machine se dira : « Ah, c'est ainsi que vous prenez des décisions. Je vais simplement le faire plus efficacement. »

Taki Sarantakis : Exactement.

Peter Loewen : Et donc, la crainte ici est que... Comment pouvons-nous... Dans le fond, comment enseigner à des machines dépourvues de valeurs et de principaux moraux? Quels sont les valeurs et les principes moraux qui devraient entrer dans leurs décisions alors que bien souvent, nous avons nous-mêmes du mal à agir selon ces principes?

Taki Sarantakis : Oui, et j'aimerais continuer sur ce sujet un moment parce que nous en entendons beaucoup parler, l'une des grandes craintes avec l'IA, c'est exactement ce dont vous avez parlé. Le fait que lorsque l'algorithme est biaisé, il reproduit le biais. Mais en réalité, ce n'est pas l'algorithme qui est biaisé ou la machine qui est biaisée. Ce sont les données dont ils s'inspirent, et ces données proviennent de décisions humaines. Par exemple, au fil des ans, l'une des meilleures illustrations de ce phénomène est le cas d'Amazon. L'entreprise s'est dit que la façon dont nous embauchons les gens, c'est laborieux, cela demande beaucoup de travail. Il faut faire des entrevues, faire venir des gens en avion. Nous pourrions plutôt avoir une machine qui nous dit qui devrait être cadre, ou qui nous devrions embaucher. Si nous nous trouvons dans un environnement où les données sont neutres, c'est plutôt positif. Mais si l'environnement des données est alimenté par des renseignements sur les personnes que nous avons embauchées dans le passé et que celles-ci étaient principalement des hommes, des personnes blanches, ayant tel ou tel type de caractéristiques, alors la machine commence à considérer cela comme une valeur. Elle se dit : « Oh, j'ai compris, c'est ce que tu veux. » Il nous faut donc faire la distinction entre ce que nous voulons et ce que la machine nous propose. Parce que la machine, à certains égards, nous renvoie un miroir de qui nous sommes. Qu'il soit question des personnes que nous autorisons présentement à entrer au pays, à obtenir la citoyenneté ou à recevoir un service.

Gillian, est-ce... est-ce un défi que vous voyez... Oubliez le gouvernement un instant. Est-ce un défi que vous observez dans la société en général? Oh, tout à fait. Nous aborderons plus en profondeur plusieurs de ces sujets dans les prochaines séances de cette série. Mais je pense qu'il s'agit vraiment – c'est un risque que nous percevons tout à fait. Et pour revenir à l'élément central de ce qui distingue l'apprentissage automatique de nos méthodes traditionnelles de programmation, ou même de nos méthodes artisanales. Par exemple, voici ma feuille de calcul. J'ai cinq colonnes, je les remplis, je les additionne et je détermine la note d'un candidat. Et vous savez, je le dis souvent – je trouve un peu malheureux que nous utilisions le terme d'apprentissage quand on parle d'apprentissage automatique. Parce que cela nous amène à penser que la machine est un peu comme nous, n'est-ce pas? Si vous enseignez à une personne, voici l'histoire de la façon dont nous avons décidé qui embaucher dans cette entreprise. Nous avons, en réalité, une capacité incroyable de traiter l'information, et nous disposons d'une multitude de moyens de faire appel à notre compréhension du monde pour prendre une décision. Vous savez, si nous sommes bien intégrés à la société, si nous parvenons à être autonomes après notre adolescence. Ce faisant, nous assimilons énormément d'information. Nous ne ferions pas l'erreur de penser, oh, vous avez engagé beaucoup d'hommes blancs dans les années 80 et 90. Je suppose que c'est ce qu'il faut faire maintenant, non? Nous connaissons le contexte, nous avons vécu dans ce monde. Nous avons observé le monde et parlé avec des gens, qui nous ont dit « non, non, ne supposez pas que nous voulons embaucher des hommes pour ce travail ». Même si les données antérieures ne reflètent pas cet aspect. Mais la machine est un peu comme une personne qui essaierait d'apprendre dans une pièce sombre. Et tout ce que vous lui donnez, ce sont des petits morceaux d'information. Et vous donnez à cette machine, parce qu'il n'est question que de mathématiques, un objectif très précis à optimiser avec des éléments d'information restreints.

Je pense que l'idée clé ici est de reconnaître que nous avons beaucoup, beaucoup de travail à faire pour déterminer quelle est la bonne façon de former nos machines. Quelle est la bonne façon d'intégrer la surveillance humaine dans le processus? C'est la même chose qu'avec nos enfants. Nous ne les envoyons pas seuls dans le monde pour prendre des décisions. Nous sommes toujours là, n'est-ce pas? Oh, non, ne traverse pas la rue. Oui, ce panneau n'est pas le bon, ou même s'il l'est, je vois une voiture arriver. Nous sommes aux côtés de nos enfants pendant qu'ils apprennent. Nous allons devoir trouver un moyen d'accompagner nos machines pendant un moment. Nous espérons qu'à terme, elles auront une compréhension du monde aussi riche que la nôtre. Mais pour l'instant, elles travaillent avec des quantités limitées d'informations et avec l'objectif spécifique que nous leur avons donné. Elles offrent de nombreux avantages, mais le risque que Peter a abordé vient du fait que, oh, ne pensez pas qu'elles sont comme nous, qu'elles ont tout compris, qu'elles comprennent tout. Elles ne comprennent que ce que vous leur avez demandé de faire.

Taki Sarantakis : J'adore cette analogie, et je vous citerai à l'avenir : nous devons rester à côté de nos machines pendant qu'elles apprennent, de la même manière que nous nous sommes tenus à côté de nos enfants lorsqu'ils ont appris à ne pas courir dans la rue. Peter, dans la vidéo, vous avez mentionné quatre notions spécifiques qui sont véritablement applicables à votre avis aux fonctionnaires ou à la fonction publique quand on parle d'intelligence artificielle. Pourriez-vous nous parler de chacune d'entre elles? La première question que vous avez mentionnée est celle du volume. Expliquez-nous brièvement ce que vous entendez par volume.

Peter Loewen : Oui, le problème ici est que nous avons beaucoup de décisions à prendre dans la fonction publique, et que le volume de décisions peut être accablant. Pensons par exemple au nombre de personnes qui ont demandé la PCU, et qui ont obtenu la prestation. On parle de millions de personnes, non? Le nombre de dossiers d'immigration à traiter dépend notamment de la capacité d'absorption du pays compte tenu des quotas annuels. Mais il est aussi question de la capacité des personnes qui travaillent à analyser, évaluer les demandes. De leur capacité à traiter les dossiers.

La première chose à faire, c'est de se demander où l'on pourrait utiliser l'intelligence artificielle. Ce qu'il faut chercher, à mon avis, ce sont les cas où il y a un grand nombre de décisions à prendre de manière répétitive, en fonction de critères déterminés, n'est-ce pas? Où les décisions sont des décisions qui reviennent constamment. Et je pense que cela s'applique à une grande partie des tâches du gouvernement. Maintenant, je dirais qu'un élément très important à souligner est que la plupart du temps, parmi toutes ces décisions, neuf fois sur dix, il sera très facile de prendre une décision. Les algorithmes seront appliqués, les règles seront appliquées...

Taki Sarantakis : Oui, nous y reviendrons. Nous aborderons cette question dans un moment...

Peter Loewen : Et une fois sur dix, c'est complexe, non?

Taki Sarantakis : Oui, et c'est l'un des principes suivants que vous mentionnez. Donc, le volume est le premier élément. Le deuxième est la cohérence, qui est étroitement liée au volume. Pouvez-vous nous dire quelques mots sur la cohérence?

Peter Loewen : Oui, ce que signifie la notion de cohérence, c'est simplement qu'il y a une raison pour laquelle nous prenons telle ou telle décision. Et nous souhaitons que les jugements effectués soient cohérents, que deux cas ayant les mêmes caractéristiques essentielles aient le même résultat. Malheureusement, les humains ne sont pas toujours cohérents dans leur façon de prendre des décisions.

Taki Sarantakis : Oui. Et jusqu'à présent, cela me semble génial. En tant que contribuable, en tant que fonctionnaire, en tant que Canadien. Ce que vous dites, c'est que si ma déclaration de revenus comporte un ensemble de caractéristiques, et que celle de ma voisine comporte les mêmes caractéristiques, nous devrions être traités de la même manière. Par exemple, je ne devrais pas avoir à payer plus d'impôts que ma voisine, et elle ne devrait pas avoir à payer plus d'impôts que moi, comme nous avons le même type de déclaration de revenus et la même situation. C'est plutôt simple, non? Volume et cohérence. Maintenant, nous commençons à entrer dans les aspects plus complexes. Le troisième élément que vous mentionnez est l'équité. Et je pense que c'est là que vous avez commencé à aborder des notions légèrement différentes. Alors, l'équité.

Peter Loewen : Oui, la notion d'équité ici... nous pourrions penser qu'il s'agit simplement d'une question de cohérence. Mais l'équité à laquelle je pense est une forme d'équité de la procédure. Et cela a trait à l'idée que les humains accordent une grande valeur au fait d'être entendus par d'autres humains. Alors, pour prendre l'exemple d'une déclaration de revenus, vous savez, il y a des zones grises dans nos impôts. Et lorsque vous contestez le traitement de votre déclaration de revenus auprès de l'ARC, l'agence prévoit la possibilité de parler de votre cas à un humain.

Alors, pourquoi... pourquoi avons-nous cette possibilité, au fait? Il y a un certain nombre de raisons, non? L'une d'entre elles est sans doute que certains éléments qui font partie de la déclaration de revenus ne sont pas entièrement explicites. Par exemple, le fait de considérer un élément comme un gain en capital peut être un point de désaccord, n'est-ce pas? Même chose pour les dépenses médicales, qui peuvent entraîner des divergences. Parfois, en parler avec une personne vous aidera à obtenir les renseignements qui vous permettront d'appliquer correctement la règle. Mais l'autre aspect de la question, surtout du côté des citoyens, c'est que nous avons, en tant qu'humains, un véritable désir moral d'être entendus. Et il est essentiel dans les sociétés démocratiques que les individus puissent être entendus par d'autres personnes. L'exemple du juge qui n'écoute pas, ou du juge de paix qui n'écoute pas alors que vous contestez une contravention de stationnement est un cas assez sympathique. Mais je pense qu'il illustre bien ce à quoi nous nous attendons d'un gouvernement : à être gouvernés par des personnes. Ainsi, nous souhaitons que des personnes entendent notre cas, pas même parce que la décision sera différente, mais parce que nous croyons qu'il est important que le jugement soit fait par un autre humain, et pas par une machine. Je pense que c'est un élément essentiel.

Vous savez, l'opinion publique voit le gouvernement comme l'instance à laquelle on s'adresse pour obtenir son permis de conduire, non? Le gouvernement, c'est l'institution qui donne les passeports, ce sont vos enseignants, ce sont les travailleurs de première ligne. Et il est difficile de percevoir l'énorme volume de travail accompli en coulisses du gouvernement, pour ainsi dire. Il y a donc une tension entre ce que les gens pensent être le gouvernement, cette chose tournée vers le monde extérieur, et ce qu'il est en fait, une énorme machine qui traite des millions de décisions chaque jour. Bref, le troisième défi réside dans le fait que lorsque l'on parle d'intelligence artificielle, il faut réfléchir à des façons de l'utiliser sans éliminer complètement les humains du processus. Non seulement parce que nous voulons nous assurer que les bonnes décisions soient prises, mais aussi parce que nous voulons que les décisions soient prises d'une manière perçue comme équitable du point de vue de la procédure. D'une manière qui peut être justifiée.

Taki Sarantakis : Finalement, le dernier élément que vous mentionnez est l'apprentissage. Gillian nous a parlé un peu de la question de l'apprentissage. Et elle a dit qu'il était regrettable que nous parlions ainsi d'apprentissage dans le cas de la machine. Que pensez-vous de l'apprentissage en matière d'intelligence artificielle au sein du gouvernement?

Peter Loewen : Je pense que Gillian a tout à fait raison de dire que les humains sont capables d'apprendre d'une manière qui n'est pas accessible aux machines. La profondeur et la diversité des informations que nous pouvons assimiler en tant que créatures sociales sont vraiment extraordinaires. Les intuitions que nous pouvons acquérir, lorsque nous apprenons par notre vécu, sans même en avoir conscience. C'est une capacité remarquable de l'être humain, que les machines mettront très, très longtemps à reproduire, si elles y parviennent un jour.

Mais le défi de l'apprentissage au sein du gouvernement n'est pas que nous n'ayons pas ces capacités. Je pense que cela tient au fait que les fonctionnaires n'ont pas le temps de tirer des leçons de leurs décisions et de procéder à un examen systématique des décisions d'une manière qui soit elle-même impartiale. Pour vérifier si les décisions prises étaient les bonnes, n'est-ce pas? Permettez-moi de vous donner un exemple. La personne de l'ARC qui décide de procéder à la vérification d'une déclaration de revenus prend elle-même cette décision. La déclaration de revenus passera ensuite à travers les différentes étapes de la vérification. La personne pourra être retirée du processus à partir de ce moment, mais elle continuera de prendre le même type de décision. Est-ce qu'elle va apprendre, et parvenir à améliorer sa capacité à savoir si la décision qu'elle a prise était la bonne? Est-ce qu'elle apprendra non seulement à appliquer les règles, mais aussi à savoir si son intuition était juste quant à la présence de fraude possible dans la déclaration de revenus? Ainsi, le défi de l'apprentissage me ramène à ce premier point : le volume est si important qu'il est difficile d'avoir la capacité d'y réfléchir, de revenir sur nos décisions et de penser à ce que serait le monde si nous n'avions pas pris ces décisions, alors que c'est un processus nécessaire pour apprendre. C'est une chose que les machines savent très bien faire, à la différence des humains, car cela demande du temps. Nous sommes très doués pour une certaine forme d'apprentissage intuitive, viscérale. Mais nous ne sommes pas capables de traiter des quantités énormes de données de manière systématique comme le font les machines.

Taki Sarantakis : Gillian, en plus de vos fonctions chez Schwartz Reisman et de votre travail sur l'intelligence artificielle, vous êtes également professeure de droit. Et il me semble que le droit est un domaine hautement compatible avec l'utilisation de l'intelligence artificielle, dans la mesure où il existe des règles codifiées, n'est-ce pas, dans les lois ou les contrats. Et il y a aussi des ensembles de données, qui constituent en quelque sorte la jurisprudence antérieure. Mais le corpus de données pourrait aussi être constitué des particularités du cas examiné. Par exemple, Bob a vendu cinq gadgets, ou Mary a acheté trois gadgets. Nous savons qu'en droit, au fil des ans, plusieurs études ont été faites. Nous savons qu'il y a beaucoup de préjugés dans la façon dont nous prenons les décisions. Nous savons, par exemple, que si vous vous présentez devant un juge lors d'une audience visant à déterminer si vous pourrez obtenir une libération conditionnelle ou un pardon, ce juge est un être humain. Il peut avoir faim, il peut être en colère, il peut être irrité, il peut avoir bien dormi ou non la nuit précédente. Et nous entendons parler d'études qui montrent qu'un juge qui traite votre dossier après le dîner sera plus heureux. Et que d'une certaine façon, les chances d'obtenir une libération conditionnelle sont plus élevées juste après le dîner. Si vous vous présentez devant le juge juste avant le dîner, son estomac gargouille. Le juge veut partir. Comment pouvons-nous... comment travailler à faire en sorte que ces éléments fonctionnent de pair? Autant pour le juge et que pour l'algorithme, parce que je ne crois pas souhaiter avoir affaire à ni l'un ni l'autre. Je ne veux pas avoir affaire à un juge affamé. Je pourrais souhaiter être entendu par un juge bien nourri et heureux, mais je n'ai pas envie que mon cas soit jugé par un juge fatigué et affamé. Et je n'ai pas non plus très envie que mon cas soit jugé par un algorithme. Alors, que devons-nous faire?

Gillian Hadfield: Je pense que ce à quoi nous sommes confrontés... et nous n'en sommes vraiment qu'au début de notre apprentissage sur la façon de faire, pour créer des équipes mixtes, formées à la fois d'humains et de machines, pour participer aux processus de décision. Peter a souligné de nombreux points très importants sur le volume et l'équité de la procédure, qui est à mon avis un aspect primordial. On parle beaucoup de l'équité des résultats. Du fait d'être traités d'une manière similaire, fondée sur la cohérence. Il a parlé de l'importance de traiter les personnes qui sont une situation similaire de la même façon. Et bien sûr, c'est un élément essentiel de nos systèmes d'État de droit. Je crois qu'il s'agit d'un élément essentiel pour assurer la stabilité de notre société. Pour aller de l'avant, nous devons avoir le sentiment que nous serons traités et évalués équitablement, n'est-ce pas. Mais revenons aussi à la question du volume. Une grande partie de mon travail – je travaille beaucoup sur l'intelligence artificielle en ce moment, mais j'ai beaucoup travaillé sur l'accès à la justice dans le passé... Et le problème du volume est un problème fantastique, non? Nous pouvons, nous souhaitons nous intéresser à la question du manque d'équité qui peut survenir lorsque l'on se présente devant les décideurs. Cependant, le fait est que de nombreuses personnes n'auront jamais l'occasion de se présenter devant les décideurs, car il y a un volume de demandes tellement élevé. Et cela contribue aussi, si l'on peut dire, aux biais de nos systèmes.

Alors ce que nous cherchons à faire, et c'est un élément sur lequel nous travaillons beaucoup à l'Institut Schwartz Reisman, c'est d'intégrer notre travail avec, vous savez, le côté technique. Comment nos informaticiens et nos ingénieurs en apprentissage automatique peuvent-ils construire des systèmes en travaillant en étroite collaboration avec des personnes issues des sciences politiques, du droit et de la philosophie, pour évaluer la manière de développer des systèmes de façon à ce qu'il y ait des interactions, et à quel moment? Qui sélectionne les données qui seront utilisées? Quels types de procédures suivons-nous pour évaluer les décisions à prendre? Parce que nous avons cette capacité qui nous permettra de résoudre notre problème de volume, de résoudre le problème de partialité dont vous parlez, le juge affamé, n'est-ce pas? Le juge de mauvaise humeur. La personne qui essaie simplement de passer à travers la dernière pile de dossiers à traiter avant la fin de la journée. Nous pourrons peut-être obtenir des taux de traitement plus élevés, des taux de cohérence plus élevés, mais nous n'y parviendrons que si nous avons créé un système qui traite le public avec équité, respect et dignité. Et je pense qu'il est essentiel de ne pas perdre de vue cet aspect. C'est ce que nous visons lorsque nous travaillons avec des juristes, des politologues et des philosophes au sein d'une même équipe. On nous rappelle à quel point ces éléments sont importants. Et cela doit faire partie intégrante de la conception. Ainsi, en réfléchissant à la mise en œuvre de l'intelligence artificielle au sein du gouvernement, je pense qu'il est primordial de ne pas se contenter de dire « eh bien, nous allons acheter ce système d'IA du fournisseur qui s'est présenté et nous a montré des statistiques fantastiques sur la façon dont il pouvait prédire les résultats à partir d'un ensemble de données ». Il faut plutôt se demander comment concevoir le nouveau processus dont nous avons besoin de manière à atteindre l'ensemble de nos objectifs grâce à l'intégration de ce nouveau...

Taki Sarantakis : Et cela nous amène en quelque sorte au dernier point important de cette série qui commence, alors que nous arrivons à la fin d'une première séance d'introduction incroyable... Au fond, il n'est pas seulement question de technologie. La question est de savoir comment concevoir toutes ces choses qui vont de pair avec la technologie, comme Gillian vient de le souligner. Je voudrais conclure la première séance de cette série en vous demandant de nous dire comment vous voyez l'avenir de l'intelligence artificielle. Certains ont dit qu'il s'agissait d'une nouvelle révolution, qu'elle éclipserait la révolution industrielle, ou qu'Internet aurait l'air d'un petit jouet en comparaison. Certains ont dit, même Stephen Hawking, je crois, avant son décès, a dit que l'intelligence artificielle serait notre dernière invention. Et qu'après cela, notre relation fondamentale avec les autres, avec la biologie ou avec notre environnement commencera à changer.

Peter, si vous me permettez, comment voyez-vous le rôle de l'intelligence artificielle dans ce grand saut de l'histoire? Vous êtes politologue. On entend parler, par exemple, de la course à l'armement en intelligence artificielle ou de la géopolitique de l'intelligence artificielle. Si vous deviez faire une prévision, comment voyez-vous la place de l'intelligence artificielle dans l'histoire, par analogie avec les événements qui nous ont précédés?

Peter Loewen : C'est une excellente question, Taki, et c'est une question pour laquelle il est risqué de faire des prévisions. Je dirai deux choses à ce sujet. La première est que je pense que l'intelligence artificielle, grâce à sa capacité à traiter les données et à prendre des décisions, aura des effets immédiats et à moyen terme assez impressionnants. Mais je pense que le véritable enjeu se situe dans la manière dont nous interagissons avec les machines et dont ces machines interagissent avec notre environnement naturel. Ce n'est pas un aspect dont nous parlons beaucoup dans la série, mais si les gens ont un intérêt profond dans ce domaine... Si l'on réfléchit à la manière dont nous serons progressivement appelés à interagir avec les données et les machines de manière beaucoup plus approfondie qu'aujourd'hui, je pense que c'est ce qui produira les changements les plus profonds. Ces systèmes pourraient constituer une forme d'extension de notre corps ou de notre façon de voir le monde, n'est-ce pas? Que ce soit par le biais de la réalité virtuelle ou d'autres choses du genre. Tout cela est bien sûr un peu futuriste, et cela me semble toujours relever de la science-fiction. Mais je pense que ces systèmes arriveront plus vite que nous le pensons.

Bref, je dirai simplement qu'à mon avis, le point central est de savoir comment nous allons aborder la démocratie et gouverner dans un monde dans lequel la façon dont nous prenons des décisions pourrait être appelée à changer. Il y a une vieille histoire d'Isaac Asimov que je trouve géniale. Je ne lis pas beaucoup de science-fiction, mais il est question dans cette histoire d'un algorithme qui cherche l'humain le plus représentatif aux États-Unis – un humain parfaitement représentatif de tous les Américains. Et qui devra décider, au nom de tous, qui devrait être le président des États-Unis. C'est une façon très évocatrice de réfléchir à ce qui arrive lorsque nous retirons aux humains leur pouvoir de décision, que nous pensons que nous pouvons évacuer l'intervention humaine et faire en sorte que tout soit un simple algorithme. Cela semble être une excellente idée jusqu'à ce que nous réalisions qu'en fait, la magie de tout ce système, c'est que nous participons tous au processus de gouvernance et de prise de décision.

Ce n'est peut-être pas une très bonne réponse à votre question, mais je pense que ces transformations auront un impact profond sur nous, d'une manière que nous ne pouvons pas comprendre tout à fait. Et je pense que le principal défi, ce sera de maintenir la magie de ce que nous avons créé ici, à savoir l'autonomie gouvernementale.

Taki Sarantakis : Gillian, vous avez le dernier mot.

Gillian Hadfield : Très bien. Je réfléchis toujours à cette question dans le contexte de la longue histoire du développement humain, qui, à mon avis, est essentiellement positive. Comme vous le savez, nous avons augmenté notre niveau de bien-être matériel. Nous avons augmenté nos possibilités de réfléchir au sens de la vie. Je pense que nous allons dans cette direction. Je crois que cela ne se fait pas sans heurts, mais que nous nous dirigeons vers des niveaux accrus d'équité, de respect des autres et d'égalité. Donc, je dirais... l'intelligence artificielle est un système très différent. Ce n'est pas un outil. Nous l'utilisons comme un outil, mais ce n'est pas seulement ça. C'est une... en tant qu'économiste, je dirai qu'il s'agit d'une technologie d'usage général. Qui peut véritablement tout transformer. Et dès qu'on lui dit de le faire, elle prend... elle peut prendre des décisions. Elle peut faire des prédictions, non? Eh bien, c'est essentiellement ce que nous faisons. Nous faisons des prédictions quand nous décidons en un instant de descendre du trottoir ou non. Alors, je suis d'accord avec Peter. L'intelligence artificielle a la capacité de transformer de manière fondamentale tout ce que nous faisons. Et je pense que, d'un point de vue global, c'est une bonne chose. Mais je veux aussi réfléchir à l'accélération rapide de ce processus que nous observons au cours des derniers siècles. En ce sens que la différence entre la vie il y a cinq cents ans et aujourd'hui est énorme. Même chose pour la différence entre la situation il y a cent ans et aujourd'hui. Et c'est la rapidité de cette transformation qui fait en sorte qu'il est si important que chacun comprenne les implications de cette transformation, et y réfléchisse. Parce qu'elle est en marche. Donc oui, le nom de la série est juste. L'intelligence artificielle est à nos portes.

Nous avons déjà vu comment les plateformes de médias sociaux alimentées par l'IA ont transformé nos relations, la politique, le monde. Les changements sont très rapides. Et je pense que nous devons nous poser la question suivante : comment pouvons-nous rester maîtres de ce processus? Et comment pouvons-nous devenir beaucoup plus agiles dans notre façon d'y réagir? Alors oui, je ne suis pas non plus une lectrice de science-fiction, mais je passe beaucoup de temps maintenant avec des gens qui ont des points de vue... il y a beaucoup de points de vue sur ce à quoi pourrait ressembler l'avenir. Mais je pense que la seule certitude, c'est qu'il s'agit d'un processus transformateur. Oui.

Taki Sarantakis : Gillian Hadfield, Peter Loewen. Merci beaucoup de nous avoir permis de bénéficier des talents, de l'énergie et des connaissances considérables de l'Université de Toronto dans un domaine aussi important que l'intelligence artificielle. L'intelligence artificielle est bel et bien à nos portes, et nous avons hâte de passer du temps avec vos collègues et vous dans le cadre de cette série pour mieux comprendre ce que cela signifie pour nous, dans la fonction publique canadienne. Merci beaucoup et prenez soin de vous, nous nous parlerons bientôt. Portez-vous bien!

Gillian Hadfield : Merci, Taki.

Peter Loewen : Merci, Taki.

[La conversation vidéo s'efface et fait place au logo de l'EFPC.]

[Le logo du gouvernement du Canada apparaît puis l'écran devient noir.]

Liens connexes


Date de modification :