Aller au contenu principal

En vedettes

L’intelligence artificielle : avantages, inconvénients et potentiel

Le gouvernement utilise déjà l’intelligence artificielle. Nous examinons les défis et les possibilités qu’elle offre.

Lorsque ChatGPT a été lancé en novembre 2022, il a atteint 100 millions d’utilisateurs en seulement quatre semaines. Cela a déclenché une vague d’enthousiasme chez ceux qui pouvaient en voir le potentiel et imaginer à quel point il pourrait être utile. Cela a aussi provoqué la panique d’autres personnes qui craignaient le pire, imaginant leurs films de science-fiction préférés devenir réalité, voire que leurs emplois seraient rendus obsolètes par des bots (ou robots informatiques) très intelligents et adaptables.

Le personnel du gouvernement fédéral a sans doute réagi de manière similaire. Cependant, lorsque la frénésie créée par ChatGPT était à son paroxysme, on n’a pas réalisé que le gouvernement utilisait déjà l’intelligence artificielle (IA) à de nombreuses fins.

« Il n’est pas question de l’avenir, cela se passe depuis des années », affirme Michael Wernick, qui a été le 23e greffier du Conseil privé de 2016 à 2019, après de nombreuses années en tant que sous-ministre fédéral et qui est maintenant titulaire de la Chaire Jarislowsky sur la gestion dans le secteur public à l’Université d’Ottawa. « On utilise déjà la reconnaissance faciale aux postes frontaliers [par exemple], donc il est davantage question du rythme auquel on adopte cette technologie. » 

Il dit que le défi lié au rythme d’adoption est que les cadres intermédiaires, ceux qui mettraient habituellement en œuvre ce type de changement, sont souvent réticents au risque, et que les médias n’aident pas en trouvant des sources mécontentes de l’IA et en en faisant le point de mire des histoires sur son adoption. 

« La boucle de rétroaction est entièrement négative, donc le conditionnement comportemental des cadres intermédiaires est de faire preuve de prudence », explique M. Wernick. « Ce n’est pas un défaut, c’est une réponse rationnelle à la structure d’incitation dans laquelle ils travaillent. Chaque fois que quelqu’un prend un risque, il ne reçoit pas beaucoup de crédit si cela fonctionne. Personne ne saurait que les prévisions météorologiques sont deux fois plus précises qu’il y a dix ans parce que personne ne [nous] le dit jamais. Mais s’il y a un problème ou si le dossier de quelqu’un est envoyé à la mauvaise adresse, la rétroaction est instantanée. C’est bien, car c’est ainsi que l’on apprend à mieux faire les choses, mais le conditionnement comportemental pousse les gens à être extrêmement prudents. » 

M. Wernick mentionne qu’on peut obtenir des commentaires positifs si on améliore le service, mais que l’amélioration des services internes ne seront pas renforcés pour autant. 

Malgré cela, l’IA a fait son entrée au gouvernement et M. Wernick voit de nombreuses possibilités pour elle à l’avenir. 
 

Domaines dans lesquels l’IA pourrait être utile

« Le secteur public comprend les gouvernements provinciaux, municipaux et territoriaux, et certains des développements les plus intéressants seront dans les domaines des soins de santé, de l’éducation, des universités, des tribunaux et du maintien de l’ordre », explique M. Wernick, qui souligne à quel point la façon d’utiliser l’IA est un sujet brûlant, au point qu’il pourrait assister à une conférence à ce sujet chaque semaine. 

Il émet une mise en garde à l’égard du risque de biais dans les algorithmes.

« Si vous alimentez les systèmes avec beaucoup de données antérieures, vous y importerez beaucoup de racisme et de misogynie, et il suffira d’un seul incident pour que tout explose », déclare-t-il. « Le secteur public devra montrer une certaine transparence par rapport aux algorithmes. C’est inévitable et la perfection est impossible. Il faut donc se demander si le gouvernement est en mesure de corriger [ces problèmes]. » 

Randy Goebel, professeur d’informatique à l’Université de l’Alberta et fondateur de l’Alberta Machine Intelligence Institute, voit également un réel potentiel pour l’IA dans le secteur des soins de santé et dans le domaine juridique. 

« Le Canada a toujours été un leader dans le déploiement de techniques informatiques pour la gestion et l’organisation de documents juridiques, qui sont encore, pour la plupart, de nature publique et peuvent être consultées et donc être utilisées par des systèmes d’IA pour créer des modèles prédictifs », explique M. Goebel. « Les plus pessimistes pensent que ce n’est qu’une question de temps avant que des machines prennent toutes les décisions judiciaires. Je pense que c’est faux pour plusieurs raisons, mais il est clair que la personne moyenne peut accéder plus rapidement à la justice en automatisant des choses simples. Par exemple, on commence à voir des entreprises apparaître et affirmer : “Vous avez reçu une contravention? Envoyez-la-nous et nous la contesterons pour vous.” » 

M. Goebel signale qu’il y a au moins autant de possibilités dans le système de santé, ainsi que certains défis. Il donne l’exemple suivant. En 2021, le Collège des médecins et chirurgiens du Canada a mené des entrevues avec des experts en IA partout au pays. Dans son rapport final, il a proposé cet adage : « À court terme, l’IA ne remplacera pas les médecins. À long terme, les médecins qui n’utilisent pas l’IA seront remplacés. » 
 

La situation réglementaire 

Le Canada a un projet de loi sur l’IA, le C-27, qui est encore en cours de rédaction, mais qui a pour but de réformer la loi fédérale sur le secteur privé et de légiférer sur la conception, le développement et l’utilisation des systèmes d’IA. Alors que le Canada révise sa législation, l’Europe a déjà légiféré et les États-Unis, selon M. Goebel, sont « encore le Far West et écoutent trop des entreprises comme Google, Amazon et Microsoft. » 

M. Goebel mentionne que les préoccupations concernant l’utilisation de l’IA par le gouvernement sont relatives à la sécurité des données et à l’utilisation éthique de celles-ci. 

« Dans les années 1980, le Canada et Singapour étaient en tête de liste pour l’automatisation et la prestation de services gouvernementaux », souligne M. Goebel. « Maintenant, je pense que nous sommes dans les 50 pays les plus avancés à ce niveau, pas dans les 5 premiers. »
 

Les préoccupations

Joanna Redden, professeure associée à l’Université de Western Ontario, a créé une base de données de 303 outils automatisés déjà utilisés par le gouvernement.

« L’un des principaux problèmes que je vois est qu’il existe très peu de renseignements disponibles sur la façon dont ces systèmes fonctionnent réellement en pratique », déclare Mme Redden. « En plus d’indiquer l’endroit où l’on utilise ces systèmes et la façon dont on le fait, ce qui a mené à la publication de ce registre, j’ai aussi effectué des études de cas sur la manière dont ils fonctionnent dans la pratique. Et je pense qu’il s’agit d’un élément clé que nous ne connaissons pas suffisamment. Il n’y a pas assez d’information publique sur les forces et les limites des nouveaux types de systèmes d’information qui sont mis en œuvre ou testés et utilisés. »

Elle fait remarquer que, souvent, il n’existe pas d’études sur l’incidence de ces nouveaux systèmes, à savoir la mesure dans laquelle ils changent les pratiques décisionnelles, l’affectation des ressources et la prestation de services. Elle recommande vivement que des équipes interdisciplinaires mènent ce type de recherches en parallèle avec le gouvernement lorsqu’il met en œuvre ces outils.
 

Les défis pour l’IA 

Le Guide sur l’utilisation de l’intelligence artificielle générative du gouvernement fédéral répertorie un certain nombre de défis et de possibilités :

  • Les outils de l’IA générative peuvent améliorer la productivité en augmentant l’efficacité et la qualité des produits dans les tâches d’analyse et de rédaction. 
  • Le contenu généré par l’IA peut amplifier les biais, porter atteinte à la propriété intellectuelle, à la vie privée et à d’autres lois.
  • Il y a des coûts environnementaux, car les serveurs consomment d’énormes quantités d’énergie. 
  • Il y a de possibles implications relatives au travail éthique si l’on confie l’étiquetage et l’annotation des données nécessaires en sous-traitance dans des pays où les salaires sont très bas. 
  • Les données d’apprentissage pourraient être obsolètes, biaisées ou ne pas présenter une diversité de points de vue. 
  • L’IA générative peut présenter des risques pour l’intégrité et la sécurité des institutions fédérales, compte tenu de son utilisation par des personnes ayant de mauvaises intentions. 
     

Jennifer Campbell est la rédactrice en chef des magazines Sage et Sage60.