Les politiques numériques à l'ère de l'IA

Balado
27 février 2025

Picture of the Big Thinking Podcast microphone with a headset

Description | À propos de l'invité | Fenwick Mckelvey dans les nouvelles | Transcription | Suivez nous

 

Description

Dans cet épisode, nous explorons l'impact sans cesse croissant de l'intelligence artificielle sur la politique et les médias numériques. Qu'il s'agisse de façonner les campagnes politiques ou d'influencer le discours public, l'IA transforme la manière dont nous nous engageons dans la politique.

Karine Morin est accompagnée de Fenwick Mckelvey, professeur agrégé en politique des technologies de l'information et de la communication au département d'études en communication de l'Université Concordia, pour analyser les risques, les avantages et les défis éthiques liés à l'IA dans le domaine numérique.

 

À propos de l'invité

Photo de Fenwick MckelveyFenwick Mckelvey est professeur agrégé en politique des technologies de l'information et de la communication au département d'études en communication de l'Université Concordia.

Il est également codirecteur de Applied AI Institute, qui vise à favoriser les applications concrètes de l'IA et à examiner comment l'IA peut améliorer le statu quo actuel.

Il dirige également Machine Agencies, une expérience entre l'intelligence humaine et l'intelligence des machines.

Fenwick Mckelvey est l'auteur de Internet Daemons : Digital Communications Possessed, lauréat du prix du livre Gertrude J. Robinson 2019.

Ses recherches portent sur les politiques et les politiques numériques, les communications et l'IA.

 

Fenwick Mckelvey dans les nouvelles

  • The federal government’s proposed AI legislation misses the mark on protecting Canadians – The Conversation
  • News coverage of artificial intelligence reflects business and government hype — not critical voices – The Conversation
  • Wait – is ChatGPT Even Legal? – The Walrus
  • Freezing out: Legacy media's shaping of AI as a cold controversy – SageJournals
  • Political Bots: Disrupting Canada’s Democracy – CJC Policy Portal 

[00:00:06] Karine Morin : Bienvenue au balado Voir Grand, où nous explorons les plus grands sujets d'aujourd'hui avec les éminentes voix du Canada. Je m'appelle Karine Morin et je suis Présidente et cheffe de la direction de la Fédération des sciences humaines.

[00:00:14] Dans cet épisode, nous explorons l'impact grandissant de l'intelligence artificielle sur la politique et les médias. Qu'il s'agisse de façonner les campagnes politiques ou d'influencer le discours public, l'IA transforme la manière dont nous nous engageons dans la politique.

[00:00:32] Aujourd’hui, Fenwick Mckelvey, professeur agrégé en politique des technologies de l'information et de la communication au département des études en communication de l'Université Concordia, se joint à moi pour analyser les risques, les avantages et les défis éthiques liés à l'IA dans le domaine numérique.

[00:00:54] Fenwick McKelvey, c'est un plaisir d'avoir cette conversation avec vous aujourd'hui, votre domaine d'expertise est l'étude de la communication, ce qui est assez large, et vous vous êtes intéressé plus particulièrement à l'intelligence artificielle, pouvez-vous nous dire comment cela s'est produit?

[00:01:10] Fenwick Mckelvey : Certainement, Karine, et c'est un plaisir d’être là. J'ai une formation traditionnelle, et ce dont nous parlons, c'est de la communication, de la politique et de l'action publique. J'ai donc été très intéressé par l'essor des réseaux sociaux et par la façon dont ils ont changé la politique il y a très longtemps, lorsque nous parlions des blogs et de la façon dont Internet allait changer la politique, et regardez où nous en sommes aujourd'hui.

[00:01:31] Mais l'un des aspects qui m'a toujours frappé est l'intérêt pour l'infrastructure et le fonctionnement de l'internet, ce dont nous parlons lorsque nous pensons à la plateforme, qu'est-ce que cela signifie réellement? De quoi était-elle faite? J'ai donc commencé à m'intéresser à la technologie qui permet à nos systèmes de communication de fonctionner et à la manière dont ils fonctionnent.

[00:01:53] Et c'est devenu un thème de plus en plus important pour moi. Lorsque je me suis penché sur les débats qui ont eu lieu au début des années 2000 sur la neutralité des réseaux, ou sur la question de savoir si l'internet allait privilégier certaines formes de contenu par rapport à d'autres, je me suis vraiment intéressé à la question de savoir ce qui se passait. C'est devenu un véritable sujet d'intérêt : qu'est-ce qui se passe? Comment cela était-il possible?

[00:02:13] Et c'est là que j'ai commencé à réfléchir en profondeur à l'Internet lui-même, et à la façon dont l'Internet changeait et devenait plus intelligent. C'est ainsi qu'est né mon premier livre, Internet Deamons, qui est une sorte d'histoire, à la fois de l'essor d'Internet en tant que quelque chose que l'on pourrait appeler une intelligence artificielle, et qui retrace le lien entre le fonctionnement d'Internet et le développement de certaines formes d'intelligence artificielle, ainsi que les premiers efforts pour rendre Internet plus intelligent, en y intégrant plus de formes de contrôle, des formes de prise de décision intelligente, et ce genre de décisions quotidiennes.

[00:02:50] Cela m'a beaucoup intéressé en tant que problème politique, car nous avons constaté que les humain.e.s n'étaient plus les seul.e.s à prendre des décisions ou à émettre des jugements, mais que les algorithmes et l'intelligence artificielle avaient pris le relais. Et cela m'a vraiment captivé parce que nous avons affaire à une société qui exige un certain degré d'échelle, cette capacité à opérer sur des ordres de grandeur, et le seul moyen d'y parvenir est de recourir à ces systèmes automatisés.

[00:03:18] Je me suis donc intéressée à la manière dont l'intelligence artificielle et les algorithmes deviennent de plus en plus des outils politiques et des formes de gouvernance qui affectent la vie quotidienne des gens. Ainsi, les gens se plaignent de la raison pour laquelle leur contenu apparaît ou n'apparaît pas sur les médias sociaux. Comment leur flux TikTok affecte ce qu'ils voient, s'ils reçoivent un tas de contenus indésirables.

[00:03:37] Tout d'un coup, c'est devenu une sorte d'intérêt moteur, où nous voyons à travers toutes les technologies des médias, cette demande et cette attente de résoudre les problèmes sociaux avec ces solutions techniques, qui sont passées des algorithmes à l'intelligence artificielle. Et c'est là que j'en suis arrivé aujourd'hui, où je me suis beaucoup intéressé à ce type de lien entre l'IA et la réglementation des médias.

[00:03:59] Karine Morin : Merci pour cette trajectoire, un peu de votre intérêt. Vous venez de mentionner brièvement la gouvernance, et certainement la politique, et je sais que votre travail a touché à la prise de décision gouvernementale et à la politique.  

[00:04:12] Mais commençons par le gouvernement et ce que vous avez vu en termes d'utilisation de l'IA par le gouvernement et certaines préoccupations que vous semblez avoir sur la façon dont cela commence à prendre forme et comment, peut-être, nous ne voyons pas autant que nous le devrions la façon dont cela prend forme. Que pensez-vous de l'utilisation de l'IA par notre gouvernement à l'heure actuelle?

[00:04:33] Fenwick Mckelvey : Eh bien, une chose que je voudrais dire, c'est qu'une partie importante de ce que je considère comme ma recherche, c'est que je suis un chercheur en politique canadienne des communications. Être un chercheur, c'est vraiment essayer de réfléchir à la façon dont, non seulement nous étudions ces systèmes, mais aussi à la façon dont nous les modifions. C'est, je pense, vraiment central et je crois vraiment que c'est une grande partie de ce qui me passionne dans le domaine et dans le fait d'être un chercheur canadien en études de communication.  

[00:04:55] Et c'est quelque chose qui s'est poursuivi avec la conviction que ce que nous faisons, c'est essayer de protéger l'utilisation de ces technologies dans l'intérêt du public, et essayer de réfléchir à la façon dont une nouvelle technologie comme l'intelligence artificielle a des inconvénients et des avantages.

[00:05:08] Pour moi, il s'agit en partie de voir le fossé entre tout le battage médiatique et le fait que nous vivons un moment où ce battage peut avoir de réelles conséquences financières avec la recherche en profondeur et que nous avons peut-être trop parlé ou cru au battage médiatique sur l'IA, et d'essayer de faire en sorte que ce battage ne nous pousse pas à intégrer précipitamment certaines solutions technologiques.

[00:05:30] Ce à quoi nous avons réfléchi, c'est à la manière de s'assurer que le gouvernement lui-même est responsable dans la façon dont il intègre l'intelligence artificielle dans ses systèmes. Il s'agit notamment d'examiner les méthodes utilisées par le gouvernement pour collecter, acquérir et évaluer les systèmes d'intelligence artificielle, et de déterminer où il les applique.

[00:05:50] Est-ce qu'il s'agit d'un risque élevé ou d'un risque faible? Le Conseil du Trésor vient de publier un nouveau rapport qui identifie les « zones de non-droit » et les façons dont nous ne devrions pas l'appliquer, ce qui, je pense, est une partie très importante de cette conversation. Deuxièmement, il s'agit d'essayer de comprendre comment le public peut participer.

[00:06:06] Et comment l'IA, de manière plus générale, constitue-t-elle un défi démocratique sur la manière de prendre une technologie très émergente et de créer des mécanismes permettant aux gens ordinaires de la comprendre et de sentir qu'ils peuvent participer au processus politique, et c'est là une deuxième et grande partie de ma préoccupation, à savoir que nos consultations et notre manière de traiter et d'élaborer la politique en matière d'IA ont été assez exclusives.

[00:06:32] Les recherches que nous avons menées ont montré que les processus qui, à mon avis, légitiment cette technologie ont pris de l'avance sur la manière dont nous permettons à cette technologie de faire l'objet d'un contrôle public et de garantir que les valeurs d'intérêt public sont intégrées dans cette technologie.

[00:06:47] Karine Morin : Donc, en parlant du public et de la façon dont il commence peut-être à comprendre l'évolution de l'IA, vous avez été particulièrement préoccupé par le rôle des médias traditionnels. Pouvez-vous nous expliquer ce qui vous préoccupe dans la façon dont ils ont dépeint ou appris l'IA, et comment ils l'ont présentée au public pour qu'il la comprenne à travers cette lentille particulière qui vient des médias traditionnels?

[00:07:14] Fenwick Mckelvey : Oui, j'ai eu la chance de faire partie d'un domaine de recherche financé par le CRSH, appelé Shaping AI, qui est une collaboration entre quatre pays : Le Canada, l'Allemagne, la France et le Royaume-Uni. Dans le cadre de cette comparaison entre quatre pays, nous avons cherché à savoir comment les médias, en tant qu'élément du façonnement social de l'IA, influencent nos attentes, notre façon de penser et la manière dont le public comprend l'IA.

[00:07:39] Et à travers cela, nous avons été confrontés à un défi parce que souvent, et c'est un peu technique, ce que nous examinons dans ce type de travail dans les études scientifiques et technologiques, c'est une controverse ou quelque chose qui est controversé. Nous sommes donc confrontés à un défi, car l'arrivée de l'IA est relativement incontestable.

[00:07:58] Si les gens pensent que cela va être un boom incroyable pour notre économie, que c'est quelque chose qui est vraiment pour l'avenir du Canada, nous voyons beaucoup d'investissements dans la stratégie industrielle numérique 4.0.

[00:08:13] Et pour moi, c'était vraiment intéressant, nous avons été confrontés à ce défi où, si nous regardons, vous savez, les grands journaux, ce que nous, c'est le genre de médias traditionnels ou les médias qui ont vraiment eu ce rôle très traditionnel, dont nous pourrions discuter, vous savez, où ils s'intègrent dans ce genre de paysage médiatique plus large, mais en regardant ces espaces et en ayant le sentiment que, oh, nous ne voyons pas vraiment un grand débat à ce sujet, nous ne voyons pas ce genre de façon dont l'IA soulève beaucoup de controverse à ce sujet.  

[00:08:37] Et très souvent, pour vous donner un exemple clair, il y a eu la controverse Clearview AI, qui concernait la possibilité pour les forces de police d'utiliser des données extraites d'Internet pour identifier des photos et des suspects potentiels - ce qui a beaucoup d'implications pour la vie privée - et qui n'est devenue un problème qu'à cause du reportage du New York Times. Nous nous demandons donc comment il se fait que ces histoires ne fassent pas plus partie de nos conversations ou que le Canada ne les révèle pas.

[00:09:06] Ainsi, les médias - qui sont de plus en plus orientés vers les bureaux d'affaires et tentent d'informer les entreprises - et les scientifiques - dont on attend de plus en plus qu'ils jouent le rôle d'entrepreneur.euse.s ou de promoteur.trice.s de la technologie - travaillent ensemble pour, disons, geler toute controverse, la refroidir et la rendre acceptable.  

[00:09:25] Je pense qu'il s'agit là d'une dynamique que nous voulons vraiment remettre en question - sans critiquer aucun des acteurs individuels - mais plus simplement les conséquences de cette collaboration où l'IA est quelque chose de bénéfique, et où les médias ne sont pas organisés et non incités de manière à remettre en question certains des inconvénients et des risques de cette technologie.

[00:09:48] Karine Morin : Je pense que vous avez raison de dire que les réalisations des Canadien.ne.s dans le domaine de l'IA, le fait que certaines des figures de proue soient canadiennes, leur reconnaissance et tout le reste ont un ton très festif.

[00:10:00] J'aimerais également aborder la politique et, à partir d'un article que vous avez publié en 2019, vous avez commencé à étudier l'IA pour façonner la politique numérique, y compris la montée des bots politiques. Décrivez donc un peu ce concept de politique numérique et quel a été l'impact de l'apparition des bots dans cet espace?

[00:10:20] Fenwick Mckelvey : Il s'agit d'une collaboration fantastique avec ma partenaire de l'Université d'Ottawa, Elizabeth Dubois, une proche collaboratrice. Ce projet sur les bots est né d'une réflexion sur les types de programmes qui fonctionnent dans les médias sociaux, sur ce qui était alors Twitter et Facebook, qui publient du contenu et qui interagissent avec les gens, que nous appellerions aujourd'hui des agents d'intelligence artificielle, mais à l'époque, on parlait de bots.

[00:10:49] Il s'agissait d'essayer de comprendre comment nos espaces publics intègrent ces acteurs non humains et quelles en sont les conséquences. Notre projet consistait donc à étudier la manière dont les robots sont intégrés dans les plateformes de médias sociaux.  

[00:11:07] Nous voulions en quelque sorte déstigmatiser les inquiétudes concernant les bots qui sont trop négatifs et reconnaître qu'il y a des bots bénéfiques ou des bots qui aident les journalistes, ainsi que Wikipédia à gérer le contenu, ainsi que des bots plus problématiques, qui, je pense, sont plus populaires aujourd'hui, qui publient du contenu, promeuvent du contenu, et sont utilisés pour manipuler la façon dont nous pensons à l'opinion publique sur les plateformes de médias sociaux.

[00:11:33] Et le robot est quelque chose de difficile à suivre. Il soulève certainement la question de l'authenticité et de l'inauthenticité du comportement humain, qui est une question délicate et à laquelle il n'est pas toujours facile de répondre, mais elle illustre bien le moment que nous vivons actuellement, les influenceur.euse.s virtuel.le.s ou l'intelligence artificielle jouent un rôle de plus en plus important en publiant du contenu et en interagissant avec les fans sur Instagram.

[00:12:00] De nombreuses entreprises investissent dans l'idée que nous n'avons plus besoin d'influenceur.euse.s humains, mais d'influenceur.euse.s IA. Le fait que de nombreuses plateformes de médias sociaux essaient de créer leurs propres personnalités, nous venons de voir Meta lancer cela.

[00:12:14] L'idée que vous allez interagir avec ces acteurs non humains sur vos plates-formes. Le bot est donc devenu un élément important des médias sociaux contemporains.  

[00:12:25] Et j'ai des sentiments mitigés à ce sujet parce qu'à un moment donné, nous ne voulions pas entièrement, vous savez, le problématiser comme « les bots sont seulement problématiques », mais nous n'avons pas vraiment abordé les inconvénients des conséquences des bots et s'assurer que les gens savent qu'ils interagissent avec le bot, donc s'assurer qu'il y a de la transparence.  

[00:12:45] Ou le fait que nous avons des moyens de mieux nous adapter à la façon dont les robots peuvent manipuler ce que nous considérons comme populaire ou non sur les médias sociaux. Ce qui revient à tout ce que nous avons en ce moment, y compris les plaintes de Drake à propos du récent Not Like Us de Kendrick Lamar.

[00:13:01] C'est une partie très importante de notre culture médiatique et nous n'avons pas de bonnes réponses sur ce qui est populaire ou non sur les médias sociaux. Et c'est en partie parce que nous ne nous sommes pas encore réconciliés avec l'influence des robots en ligne.

[00:13:11] Karine Morin : Hmm, et donc comment cela joue dans le sens de tout ce qui se passe, et certainement politiquement, je suppose que vous nous avertissez que nous sommes conduits sur certains chemins, disons, que nous devrions être un peu sceptiques quant à l'authenticité, l'honnêteté, la transparence, ou simplement nous sommes vraiment tiré.e.s dans une direction où, avec un peu de prudence, nous aurions été un peu plus sceptiques.

[00:13:39] Donc, pour continuer dans cet espace de, de ce qui se passe politiquement et, de l'utilisation de l'IA, un livre que vous venez de terminer, je crois, SimPolitics, où vous examinez l'implication, par exemple, de l'exécution de simulations informatiques pour prédire les résultats des élections. Que retenez-vous de l'élection américaine où Elon Musk est devenu une figure dominante de la campagne du président Trump? Y voyez-vous un lien?

[00:14:07] Fenwick Mckelvey : Le projet sur lequel je travaille est un peu étrange parce que je suis un Canadien qui écrit un livre sur la politique américaine. La motivation était la suivante : essayer de comprendre comment tant de nos discussions, et c'est vraiment post-Obama, nous ne pouvions pas penser à la façon dont la politique changeait sans impliquer les nouvelles technologies.

[00:14:29] Sans dire, comment cette campagne va-t-elle être définie par Twitter, ou Facebook, ou Instagram, ou TikTok. Et donc, ce que j'essayais de faire, c'était de décortiquer, où avons-nous trouvé ce lien entre le changement politique et le changement technologique? D'où cela vient-il? Le projet lui-même a commencé par une comparaison entre le Canada et les États-Unis.

[00:14:51] Il est apparu clairement qu'une grande partie de la genèse de ces idées, sur laquelle j'aimerais travailler un peu plus, est venue des États-Unis, et vous pouvez voir comment elle est importée, comment elle se déplace vers le Canada. Le livre lui-même tente donc de suivre cette façon dont nous pensons à la politique à travers la technologie et comment la technologie elle-même change ce qui se passe et la façon dont nous pensons à la politique.

[00:15:19] Je pense donc qu'avec Trump et l'administration américaine actuelle, nous voulons souvent raconter ce qui s'est passé en disant que c'est le résultat de ce qui se passe sur Meta ou TikTok.

[00:15:38] Et en réalité, je pense qu'il y a des questions plus profondes que l’angle technologique nous fait manquer, comme l'inégalité des richesses, le déclin de l'espoir pour l'avenir. Alors, comment pouvons-nous essayer de décentrer la technologie de son rôle central pour en faire un élément de la façon dont nous comprenons ce qui se passe en politique?

[00:15:55] Il s'agit vraiment d'essayer de dire et d'indiquer quelles sont les façons dont nous pensons à la politique qui sont limitées ou définies ou façonnées par ce type d'intention et d'accent mis sur la technologie elle-même.

[00:16:08] Karine Morin : Je me souviens de l'ère Obama et du fait qu'il y avait cette incroyable collecte de données et qu'ils pouvaient, comme nous l'avons compris, vraiment profiler les électeur.trice.s et en quelque sorte voir où dépenser leurs efforts, à qui parler, à quelles portes frapper, et sinon, si j'ai bien compris, abandonner les autres.  

[00:16:27] Et la prise de décision qui semble aller de pair avec cette information et cette utilisation des ordinateurs et de l'IA revient vraiment à votre idée que certains sont exclus, d'autres peuvent ne pas être atteints de la même manière, obtenir les mêmes informations. Et je suppose qu'il s'agit là d'une mise en garde pour chacun d'entre nous.  

[00:16:47] J'aimerais en venir un peu à la façon dont, peut-être avec l'apparition de ChatGPT, nous voyons maintenant l'IA dans presque tous les secteurs, dans toutes les directions, et nous en parlons. Et vous avez parlé de ces risques que vous voyez que l'IA pose et dont vous pensez que nous ne parlons pas autant que nous le devrions.  

[00:17:09] Et je pense que je viens de nous amener à cette question : sur quoi devrions-nous nous concentrer davantage en ce qui concerne l'apparition omniprésente de l'IA dans toutes les sphères de notre vie quotidienne ou de nos activités, sur le plan professionnel, personnel? Qu'est-ce qui vous préoccupe et comment devrions-nous faire pour aller plus loin que le battage médiatique que nous avons mentionné précédemment?

[00:17:29] Fenwick Mckelvey : C'est un moment bizarre pour moi, parce que je m'intéressais à l'intelligence artificielle et à la façon dont elle filtrait les appels téléphoniques sur nos réseaux mobiles, ainsi qu'à ces façons nuancées de parler de la gouvernance de l'IA, et tout d'un coup ChatGPT arrive.  

[00:17:47] Mais je n'étais pas du tout préparé à ce spectacle - à défaut d'un meilleur mot - qu'était ChatGPT et, surtout, en tant qu'éducateur travaillant et formant des étudiant.e.s, il y a tout à coup un vrai débat existentiel sur la façon de justifier et de défendre l'intellect, la qualité et les capacités de mes étudiant.e.s, alors qu'il semble que, vous savez, n'importe qui avec un diplôme d'arts peut être remplacé par une intelligence artificielle, ce qui est un avenir incroyablement sombre à normaliser et à imposer à tant de gens.  

[00:18:22] Et je pense qu'une partie de cela a été d'essayer d'être conscient que ChatGPT arrive avec cette vision de ce à quoi l'avenir va ressembler. Et cela a été soutenu par la Silicon Valley et les petits géants de la technologie qui travaillent vraiment en marge de la société à bien des égards

[00:18:41] Et si vous regardez, par exemple, beaucoup de débats sur la fin de l'IA ou le risque existentiel pour l'humanité, vous parlez d'un très petit sous-ensemble d'une manière très spécifique de parler de ce qui va se passer avec l'intelligence artificielle.

[00:18:55] Il m'est apparu clairement que la façon dont nous pensons et construisons l'avenir, et un avenir qui implique l'IA, n'est pas vraiment un sujet de conversation publique. Et, ChatGPT en est un excellent exemple, tout d'un coup elle arrive, et on attend de nous que nous nous y adaptions.

[00:19:11] Même si, très honnêtement, et cela relève de la loi canadienne sur la protection de la vie privée, il y a de vrais débats sur la légalité de cette technologie au Canada. Nous ne permettons pas que cela fasse partie de la conversation. Pour moi, c'était un moment très difficile, parce que je voulais dire que notre société a pris des décisions collectives qui ne sont pas en phase avec le fonctionnement potentiel de ChatGPT.

[00:19:33] Il y a une façon de présenter les choses qui pourrait être un simple battage publicitaire, mais ce n'est certainement pas quelque chose que nous avons eu ou que nous avons la capacité d'avoir ce genre de discussions sur la façon dont nous allons façonner et diriger cette technologie. En réalité, ce que l'on nous propose, c'est de payer 20 dollars par mois pour utiliser ChatGPT ou non.

[00:19:49] Pour revenir à mon travail de chercheur en politique d'intérêt public, je veux m'assurer que les sociétés démocratiques sont capables de comprendre et de gouverner ces technologies et de ne pas penser ou légitimer l'avenir certain de l'utilisation de l'IA qui est en train d'être préparé par un petit groupe d'entreprises technologiques.

[00:20:11] Et c'est devenu le problème pour moi, et c'est toujours ce avec quoi je travaille parce que tout le monde parle de ChatGPT, et c'est comme, est-ce que vous parlez juste d'acheter un service de ChatGPT? Et c'est vraiment dans la discussion sur l'intelligence artificielle, parce que vous avez acheté et vendu une version préemballée de ce à quoi l'avenir de l'IA va ressembler.

[00:20:28] Karine Morin : Le génie est-il sorti de la bouteille? Est-ce qu'on peut se passer de ChatGPT? Ou est-ce qu'il y a, est-ce qu'il y a des remplaçants qui vont venir d'une manière qui, selon vous, aurait conforme aux lois existantes. Donc est-ce que vous voulez prédire si, s'il y a un moyen de revenir en arrière ou, comme je l'ai dit, est-ce qu'il est sorti de la bouteille et qu'il y a probablement des outils que nous utilisons qui ont été créés de manière illégale ?

[00:20:53] Fenwick Mckelvey : Eh bien, je vais utiliser mon chapeau de pronostiqueur de génie, qui est à cent pour cent précis - permettez-moi de vous assurer que je n'ai jamais fait d'erreur - je ne sais pas si nous sommes dans un plateau ou un pic, si nous allons voir ces technologies s'améliorer en termes de capacités ou si elles vont être plus marginales.

[00:21:15] Je pense qu'il y a beaucoup de débats sur l'amélioration de ces outils par rapport à des outils qui deviennent simplement plus efficaces, ce qui s'est produit lorsque nous avons parlé avec DeepSeek de la Chine qui a vraiment remis en question l'idée d'avoir une IA vraiment grande et une IA plus frugale et les effets de cette dernière.

[00:21:36] Je pense donc qu'il y a une grande question à se poser sur l'endroit où nous nous permettons d'imaginer où cette technologie va aller et dans quelle mesure. C'est donc une grande partie de la prochaine étape : parlons-nous d'une intelligence artificielle générale? - ce que certain.e.s pensent être, vous savez, sur le point d'arriver - ou allons-nous nous diriger vers des façons plus personnalisées et super fonctionnelles d'utiliser l'intelligence artificielle?

[00:22:00] Donc des moyens d'écrire, j'espère bien, des moyens d'aider à gérer mon emploi du temps, pour que je ne sois pas stressée par le fait que j'aimerais que ce soit bénéfique, mais je me demande si ça va être une question du type " fait tout " ou " fait quelques trucs " vraiment bien.

[00:22:15] Et une partie de ce que j'ai vraiment espéré et défendu, c'est que nous réfléchissions à la façon dont nous pouvons lier l'avenir de nos médias de service public à l'intelligence artificielle. Il y a beaucoup de conversations en cours en Europe sur la construction d'un service public ou d'un GPT public, cela se passe aux Pays-Bas et en Allemagne, et j'ai l'impression que nous sommes dans cette sorte d'ornière où nous, la plupart des Canadiens, et il y a beaucoup de preuves, croyons vraiment en l'avenir de la CBC.

[00:22:44] C'est un exemple de service public qui a vraiment profité à des millions de Canadiens, et pourtant nous sommes incapables de dire : « Oh, eh bien, quelque chose comme, vous savez, une technologie comme les médias sociaux ou l'IA ne pourrait jamais être quelque chose comme un outil d'intérêt public ou de service public comme nous l'avons avec la CBC. »

[00:23:04] Je pense donc qu'il ne s'agit pas de l'arrêter, mais de créer des outils publics ou des technologies régies par l'État, comme un "CanGPT", comme j'aime à l'appeler en plaisantant, qui pourrait faire ce genre de choses.  

[00:23:17] Et j'aimerais que cela continue à faire partie de la conversation. Ce n'est pas comme si c'était, je pense, la réponse parfaite, mais j'ai l'impression que si nous, si nous réduisons la question à seulement, est-ce que nous utilisons ChatGPT ou pas, nous oublions qu'il y a beaucoup de façons différentes dont les avantages de l'intelligence artificielle ou les façons dont les grands modèles de langage pourraient être utilisés dans la société, pourraient être livrés et déployés très différemment.  

[00:23:37] Cela pourrait également contribuer à raviver la foi et l'espoir dans l'avenir de ce que nous appelons les médias de service public. Et ces conversations ont lieu en Europe.  

[00:23:47] J'aimerais que cela se produise davantage, et j'ai vraiment de la chance que cela se produise. Et une partie du travail que nous faisons à Montréal autour de l'idée d'un AI Commons, avec [...] et Mutek et ces excellents collaborateurs aussi à Concordia sur cette idée de comment penser l'IA et fournir l'IA de manière à ce qu'il y ait vraiment quelque chose, qu'il y ait un intérêt public et une valeur publique.

[00:24:07] Karine Morin : Cela me semble extrêmement précieux, car sinon, nous avons vraiment l'impression que tout cela est dirigé par des entreprises, que c'est l'intérêt des entreprises qui est en jeu et que, comme vous y avez déjà fait allusion, nous avons vraiment été dirigés par des considérations commerciales, par des hommes d'affaires, par le type de Silicon Valley.

[00:24:30] Une grande partie de ces activités est donc considérée sous l'angle de l'entreprise plutôt que sous celui de l'utilité publique ou des biens publics et des biens communs. Vous avez fait allusion à de nombreuses collaborations et certaines que nous avons notées, comme le travail que vous avez effectué avec l'initiative Machines Agencies.

[00:24:50] De manière plus générale, votre travail et vos collaborateurs sont issus des sciences humaines. Ces approches, cette manière d'envisager les nouvelles technologies peuvent être informatives et bénéfiques, et vous les mettez en avant pour que nous puissions en tenir compte dans le cadre de ce qui se passe avec l'IA autour de nous.

[00:25:10] Fenwick Mckelvey : Oui, l'une des choses dont je suis vraiment reconnaissant dans les changements de ma carrière, c'est qu'être professeur est parfois une chose étrange parce qu'on endure, mais on doit aussi se réinventer et penser à de nouvelles façons de faire, et j'ai eu beaucoup de chance, grâce à l'Institut Milieux et à l'Institut d'IA appliquée de Concordia, de pouvoir vraiment développer des collaborations interdisciplinaires, des façons de faire les choses, et cela dans les domaines de l'ingénierie, de la technologie, des sciences sociales, des sciences humaines et des arts.

[00:25:44] Et le point central pour moi a été ma collaboration avec le groupe de travail sur les agences de machines. Machine Agencies est un jeu de mots sur l'idée qu'il existe de nombreux types d'agences, de nombreux types d'agences humaines et de machines, et sur les façons dont nous interagissons.  

[00:26:02] La création artistique et la recherche, qui est un terme clé, et je pense qu'il s'agit d'une partie importante du travail que nous faisons à Concordia, a porté sur la façon dont nous pouvons construire des choses qui nous aident à donner un sens à ces différentes façons d'être en relation avec les humain.e.s, les ordinateurs, les machines et l'intelligence artificielle.  

[00:26:18] Nous avons donc réalisé un certain nombre de projets et d'agences de machines. Nous avons réalisé des expositions d'art en faisant appel à des artistes qui travaillent avec l'IA. Nous avons créé ce que nous appelons la machine à consulter, qui préfigure un avenir où vous n'aurez plus à vous soumettre à une consultation publique et où l'IA l'écrira pour vous.

[00:26:36] Nous savons qu'il est possible d'améliorer ou d'optimiser encore ce processus en faisant lire et résumer ces documents par une IA, de sorte qu'aucun être humain ne soit impliqué dans la consultation publique. D'autres créateurs sont venus travailler sur certaines formes d'intelligences robotiques très simples. Voici un collègue, Zeph Thibodeau, qui est sur le point d'achever son projet.

[00:26:58] Ainsi que la création de jeux. Nous avons également créé un jeu de société appelé Lizards and Lies, dirigé par Scott DeJong, qui essayait de réfléchir à la manière de décrire les flux d'informations, mais en utilisant un jeu de société pour le faire et en utilisant le format d'un jeu de société. Pour moi, ce genre de collaborations est une manière amusante d'essayer de rassembler les gens, de me décentrer et d'essayer de réfléchir à ce qu'est un espace pour les personnes qui s'intéressent à ce que Beth Coleman et Maurice Jones appelleraient "l'IA sauvage.”  

[00:27:34] J'aime penser, avec mes autres collaborateurs du réseau Abundant Intelligences, aux façons de penser les épistémologies autochtones pour l'IA, aux moyens de créer des espaces et des conversations, mais aussi aux nombreuses façons différentes dont nous pouvons penser à quelque chose comme une intelligence artificielle, et aux formats que nous pouvons expérimenter, aux jeux, aux ateliers, aux œuvres d'art qui peuvent nous aider à donner un sens à cette chose que nous appelons simplement l'intelligence artificielle.

[00:28:03] Karine Morin : On dirait qu'il se passe beaucoup de choses à Concordia parce qu'il y a aussi l'Applied AI Institute, vous venez d'y faire allusion. Il semble que l'accent soit mis sur certains des défis pressants auxquels nous sommes confrontés, comme les changements climatiques, les villes durables, et sur la façon dont l'IA peut être utilisée de manière bénéfique.

[00:28:25] L'IA peut-elle être utilisée d'une manière qui nous soit bénéfique? Tout à l'heure, vous parliez d'amusement et de créativité, mais l'IA peut-elle aussi être une force pour le bien?

[00:28:36] Fenwick Mckelvey : Oui, c'est là que j'ai l'impression de faire le tour de la question et que les gens se moquent de moi parce que je peux être le spécialiste de la politique et j'adore parler de la gouvernance de l'IA et de ce monde, et, et ça devient incroyablement ennuyeux quand votre autre option est de créer un jeu de société. Pourquoi voudriez-vous fréquenter le monde de la politique?

[00:28:52] Et je pense que le plaisir se mêle au défi et qu'ils font partie d'un spectre et que j'ai eu beaucoup de chance. Au cours des trois dernières années, j'ai été codirecteur du nouvel Institut d'IA appliquée de l'Institut Concordia.

[00:29:10] Une partie de notre réflexion à l'Institut a porté sur la manière de faire progresser et d'envisager le développement de l'IA de manière responsable, et sur ce que signifie "responsable". Qu'est-ce que cela signifie? Comment inclure cela dans certains des travaux que nous réalisons en termes de construction de systèmes d'IA et comment mettre l'accent et trouver des moyens de faire, et d'inclure la communauté dans l'intelligence artificielle.  

[00:29:31] C'est l'un des travaux auxquels nous avons tenté de réfléchir : pouvons-nous faire de la recherche communautaire ou de la recherche avec la communauté montréalaise sur les impacts et les moyens de développer l'IA? J'aimerais beaucoup réfléchir à la façon dont cela pourrait devenir une opportunité pour l'Institut.

[00:29:46] Parce que, vous savez, nous avons grandi, mais il y a tellement de possibilités de réfléchir à des expériences et de mettre en relation les Montréalais.es et les Canadien.ne.s ordinaires avec les avantages, et de leur donner l'impression qu'ils/elles font partie de ce processus.  

[00:30:00] C'est ce qui m'enthousiasme dans l'Institut : nous sommes ce genre d'espace qui construit l'intelligence artificielle et qui essaie de trouver comment la construire mieux et d'une manière qui démontre que Concordia apporte une approche nouvelle et inédite à ces discussions sur l'intelligence artificielle.

[00:30:17] Karine Morin : Eh bien, merci beaucoup d'avoir présenté une partie de ce travail de collaboration, de ce travail interdisciplinaire. Et je pense que ce que nous venons d'aborder, c'est la complexité de l'IA, et oui, nous comprenons qu'il s'agit d'un exploit technologique, mais que, grâce aux sciences humaines, nous apporterons des perspectives prudentes, nous examinerons, nous enquêterons, nous questionnerons, et j'espère que les personnes qui ont écouté cette conversation seront un peu plus prudent.e.s dans leur considération des avantages, mais aussi qu'ils ou elles reconnaîtront les risques potentiels de l'IA.

[00:30:53] Fenwick McKelvey, merci beaucoup. Ce fut un plaisir d'avoir cette conversation avec vous.

[00:30:59] Fenwick Mckelvey : Karine, ce fut un réel plaisir. Merci à tou.te.s de nous avoir écoutés.

[00:31:07] Karine Morin : Merci d'avoir écouté le balado Voir Grand. Je remercie aussi très sincèrement mon invité, Fenwick Mckelvey, professeur agrégé à l'Université Concordia. Je tiens également à remercier nos amis et partenaires du Conseil de recherches en sciences humaines, dont le soutien permet la réalisation de ce balado.

[00:31:29] Enfin, merci à CitedMedia pour son soutien à la production du balado Voir Grand. Rejoignez-nous pour l'épisode du mois prochain, et suivez-nous sur votre plateforme de balado préférée pour le voir dès sa sortie. À la prochaine! 

 

 

Suivez nous pour plus d'épisodes

Icon of Apple Podcast

Apple Podcast

amazon music logo

Amazon Music

Podcast addict logo

Podcast Addict

iHeartRadio logo

iHeartRadio