Sélection de la langue

Rechercher EFPC

Aperçu de ChatGPT d'OpenAI (DDN2-A12)

Description

Cet article porte sur ChatGPT, de la compagnie OpenAI, ses capacités en tant que modèle de langage d'IA et ses limites actuelles.

Publié : 15 mars 2023 (mise à jour : 9 juillet 2025)
Type : Article
Contributeur : Alyea Cyr Connell


Robot conversationnel d'intelligence artificielle assis sur une chaise, travaillant et clavardant sur un ordinateur portable.

Aperçu de ChatGPT d'OpenAI

Cet article a été initialement publié en mars 2023 peu après la diffusion publique de ChatGPT, qui est devenu rapidement l'un des sites Web les plus consultés sur Internet. Il a depuis été mis à jour pour refléter les récentes avancées et les cas d'utilisation élargis de ChatGPT au sein du gouvernement du Canada.

Si vous n'utilisez pas déjà ChatGPT régulièrement, il est fort probable que vous en ayez entendu parler. Ce qui était autrefois un concept novateur est rapidement devenu un assistant personnel pour de nombreuses personnes, permettant de gagner du temps dans la réalisation de tâches courantes comme la rédaction de courriels ou la synthèse de documents complexes, et de s'attaquer à des tâches plus ardues comme le codage, l'analyse et même le graphisme. ChatGPT n'est pas seulement un robot conversationnel : il transforme la façon dont nous interagissons avec l'IA. Grâce aux mises à jour continues et à son passage au modèle GPT-4, il est évident que cet outil redéfinit notre façon de voir les communications et la productivité.

Notez que ChatGPT est l'un des nombreux outils d'intelligence artificielle (IA) générative fondés sur un grand modèle de langage; pour en savoir plus sur ce dont il s'agit, consultez l'article Utilisation des grands modèles de langage (comme ChatGPT) dans la fonction publique fédérale (DDN2-A25).

Notions de base

Créé par OpenAI, un organisme de recherche en IA établi en Californie, ChatGPT est un robot conversationnel avancé alimenté par l'IA et conçu pour générer des conversations de façon semblable à un être humain, synthétiser des renseignements et produire du contenu original. D'abord mis à la disposition du public le 30 novembre 2022, il a rapidement retenu l'attention pour ses capacités impressionnantes de compréhension et de génération du langage naturel.

Depuis son lancement, ChatGPT a connu des améliorations majeures avec des mises à jour qui l'ont rendu plus précis et flexible. OpenAI a également mis à niveau sa technologie, passant du modèle GPT-3.5 au GPT-4, plus avancé, qui comprend mieux le contexte et fournit des réponses plus détaillées.

En plus de ses capacités de conversation de base, ChatGPT peut maintenant servir à réaliser diverses tâches, y compris la rédaction de codes, la production de contenu créatif, l'aide à la recherche universitaire et même l'aide à la prise de décisions complexes. OpenAI a également déployé des fonctionnalités comme des instructions personnalisées en 2023, qui permettent aux utilisateurs et utilisatrices de personnaliser leurs interactions, rendant le robot conversationnel encore plus adapté aux préférences individuelles.

Bien que ChatGPT soit toujours en cours d'amélioration, il a beaucoup évolué et il continue de changer au fil du temps. Son temps de réponse et ses capacités s'améliorent continuellement d'une version à l'autre. À mesure que la technologie de l'IA progresse, les utilisateurs et utilisatrices peuvent s'attendre à des mises à jour continues et à des fonctionnalités de plus en plus sophistiquées.

D'innombrables avantages, mais des signaux d'alarme demeurent

L'essor des modèles de langage avancés comme ChatGPT a suscité à la fois l'enthousiasme et l'inquiétude. Ces outils d'IA peuvent tout automatiser, du service à la clientèle à la création de contenu, offrant un potentiel immense pour augmenter la productivité. Cependant, ce pouvoir comporte des défis et des risques, notamment liés aux préoccupations relatives à la suppression d'emplois par l'automatisation, la déshumanisation du contenu et l'utilisation inappropriée de la propriété intellectuelle. Comme ces modèles sont formés à l'aide des données provenant d'Internet, ils peuvent perpétuer par inadvertance des biais ou simplement faire écho aux tendances existantes.

Le rôle de l'IA dans l'éducation est un autre sujet épineux. Les étudiants et étudiantes sont maintenant en mesure de produire facilement des dissertations, et il est difficile pour les éducateurs et éducatrices de distinguer le travail d'un être humain de celui réalisé par une machine. Par conséquent, des préoccupations au sujet de l'intégrité universitaire ainsi que des risques de dépendance excessive et de déqualification ont fait surface.

De plus, les biais dans l'IA constituent un problème persistant. Malgré les efforts déployés pour les atténuer, les modèles de langage peuvent produire du contenu biaisé ou nuisible parce qu'ils reflètent les biais que l'on retrouve dans leurs données de formation. Comme l'indique la Harvard Business Review (en anglais seulement), « les biais peuvent se glisser dans les algorithmes de plusieurs façons » [traduction], reflétant souvent les inégalités sociétales.

La mésinformation est également une préoccupation majeure. Bien que ChatGPT s'améliore avec le temps, il ne peut toujours pas vérifier l'exactitude de ses réponses. Comme l'admet OpenAI (en anglais seulement), « ChatGPT écrit parfois des réponses plausibles, mais incorrectes ou absurdes » [traduction], ce qui signifie que les utilisateurs et utilisatrices doivent faire attention et ne pas accorder une confiance aveugle à ses résultats.

En fin de compte, ces modèles ne comprennent pas le monde comme les êtres humains – ils s'appuient sur des tendances statistiques pour prédire le langage. Il est donc essentiel de surveiller et de réglementer leur utilisation avec soin, en veillant à ce que ces puissants outils soient utilisés de façon éthique et responsable.

Que se passe-t-il au gouvernement du Canada?

Depuis l'essor de la technologie d'IA générative, en 2022, les fonctionnaires utilisent l'IA pour accomplir des tâches de toutes sortes, comme analyser des courriels ou produire des codes. De nombreux ministères ont adopté Microsoft Copilot pour faciliter la prise de décisions, rationaliser les flux de travail et améliorer la productivité en tirant parti des capacités de l'IA en temps réel.

Utiliser l'IA générative dans votre travail quotidien

Attention!

Lorsque vous avez recours à des outils d'IA, ne saisissez jamais de renseignements protégés, classifiés ou personnels dans des plateformes publiques. Utilisez-les uniquement pour le contenu non classifié et suivez les politiques ou les pratiques exemplaires de votre milieu de travail avant d'utiliser toute information générée par l'IA. En cas de doute, consultez la Directive sur la prise de décisions automatisée du gouvernement du Canada pour vous assurer d'adopter un comportement responsable et éthique.

Ce à quoi peut servir l'IA

  • Rédiger des présentations, des plans, des notes d'allocution, des procès-verbaux de réunions et d'autres documents écrits
  • Réviser des documents en langage simple et inclusif
  • Préparer des ébauches de traduction de documents internes
  • Effectuer des recherches initiales et dresser une liste de sources à consulter
  • Faire un exercice de remue-méninges pour trouver des idées créatives
  • Fournir du soutien à l'apprentissage personnalisé
  • Résumer et analyser des documents, des articles et des transcriptions de réunions
  • Écrire du code informatique
  • Créer des images pour les présentations

Ce qu'il faut éviter de faire avec l'IA

  • Produire des renseignements inappropriés, nuisibles, illégaux ou contraires à l'éthique
  • Obtenir des conseils juridiques et stratégiques
  • Vérifier des faits
  • Utiliser l'IA comme seule source d'information pour prendre des décisions d'affaires importantes
  • Créer des images de personnes
  • Créer du matériel qui pourrait servir à tromper les gens ou à propager de la mésinformation
  • Traiter les cas des clients et clientes à l'aide de plateformes publiques d'IA

Au Canada, la Directive sur la prise de décisions automatisée, entrée en vigueur le 1er avril 2019, continue de guider l'utilisation des technologies d'IA par le gouvernement. Elle vise à assurer la transparence, la responsabilisation et l'équité dans la façon dont l'IA est intégrée au processus décisionnel administratif et à la prestation des services publics. Cette directive s'applique aux systèmes décisionnels automatisés qui ont une incidence sur des personnes ou des entreprises à l'extérieur du gouvernement, par exemple pour déterminer l'admissibilité aux prestations ou décider qui peut faire l'objet d'une vérification.

La Directive s'applique aux systèmes décisionnels automatisés utilisés pour les décisions qui ont une incidence sur les droits juridiques, privilèges ou intérêts des personnes ou des entreprises à l'extérieur du gouvernement, par exemple, l'admissibilité aux prestations ou la sélection de personnes qui feront l'objet d'une vérification (Utilisation responsable de l’intelligence artificielle au gouvernement).

En plus de la Directive, le gouvernement du Canada a instauré le Guide sur l'utilisation de l'intelligence artificielle générative en septembre 2023 pour aider les institutions fédérales à utiliser des outils comme ChatGPT. Le guide permet de veiller à ce que ces outils soient utilisés conformément aux normes éthiques, tout en répondant aux préoccupations relatives à la protection des renseignements personnels, à la sécurité, à la propriété intellectuelle et aux droits de la personne. Il met l'accent sur l'importance d'un développement responsable de l'IA, de la transparence de l'utilisation et du maintien de la confiance du public en contribuant au déploiement juste et éthique des outils d'IA générative.

De nombreux ministères envisagent maintenant de mettre au point leurs propres outils internes d'IA générative, comme des grands modèles de langage à source ouverte. Ces modèles plus petits pourraient être hébergés en toute sécurité dans les nuages gouvernementaux ou même sur des ordinateurs de bureau individuels, afin de répondre aux principales préoccupations en matière de confidentialité et de sécurité. En ayant recours à des solutions internes, les fonctionnaires du gouvernement fédéral peuvent travailler avec des renseignements protégés et de nature délicate, ce qu'on ne peut pas faire avec des modèles externes comme ChatGPT en raison des mesures de sécurité strictes. Cette approche pourrait fournir un environnement plus sûr et plus contrôlé pour tirer parti de l'IA tout en protégeant les données essentielles.

Bien que le gouvernement du Canada ait fait des progrès pour orienter l'intégration de l'IA dans les cadres administratifs, une question plus complexe se pose lorsqu'il s'agit de tenir compte du rôle du gouvernement en tant que législateur et régulateur. À l'échelle mondiale, des initiatives comme la Loi européenne sur l'intelligence artificielle et d'autres cadres régissant l'utilisation responsable de l'IA sont en cours d'élaboration, ce qui reflète une pression croissante pour une réglementation complète quant au déploiement de l'IA. À mesure que les outils d'IA générative se répandent, les gouvernements sont de plus en plus pressés d'agir de manière décisive, en établissant un équilibre entre la promotion de l'innovation et l'utilisation éthique et responsable de ces technologies.

Pourquoi devriez-vous vous en soucier?

ChatGPT et d'autres technologies d'IA similaires font partie intégrante de nos vies, et ils sont là pour de bon. Que nous le réalisions ou non, ces outils façonnent déjà notre façon de travailler, de communiquer et de prendre des décisions. À mesure que l'IA continuera de progresser et que son adoption se répandra, il sera essentiel de demeurer au fait et de s'adapter pour prospérer dans ce contexte en évolution.

Au gouvernement du Canada, des initiatives comme l'Ambition numérique du Canada, les normes relatives au numérique, les compétences en matière de numérique au sein du gouvernement du Canada (en anglais seulement) et la Stratégie en matière d'intelligence artificielle pour la fonction publique fédérale fournissent des cadres utiles pour aider les personnes et les organisations à traverser le virage numérique. En adoptant l'apprentissage continu et en développant de nouvelles compétences, nous pouvons non seulement garder une longueur d'avance, mais aussi améliorer notre façon de servir les autres.

Bien que l'avenir soit incertain, une chose est claire : se préparer est essentiel. Prenez le temps d'explorer les ressources à votre disposition, d'approfondir votre compréhension de l'IA et de trouver des façons novatrices et éthiques d'intégrer ces outils à votre travail. N'oubliez pas : soyez attentif ou attentive aux préoccupations en matière de confidentialité et n'entrez jamais de données protégées ou de nature délicate dans des outils en ligne.

Ressources


Date de modification :