Voir Grand au Congrès 2024
Alors que l'intelligence artificielle prend de l'ampleur et de l'importance, comment pouvons-nous garantir une utilisation plus responsable et plus équitable de cette technologie? Notre éminent panel abordera ce sujet et plus encore en discutant du droit et de la réglementation de l'IA, de l'éthique de l'IA et des algorithmes d'IA, et de l'impact de l'IA sur les droits de la personne, l'équité et la justice sociale d'un point de vue mondial.
Université d'Ottawa
Université McGill
[00:00:18] Annie Pilote : Welcome, bienvenue. Je m’appelle Annie Pilote et je suis doyenne à la Faculté des études supérieures et postdoctorales de l'Université Laval et Présidente du Conseil d'administration de la Fédération des sciences humaines.
[00:00:35] Au nom de la Fédération des sciences humaines et de l'Université McGill, j'ai le plaisir de vous accueillir à la première causerie Voir Grand du 93e Congrès des sciences humaines : "Façonner l’IA."
[00:00:48] Aujourd'hui, Jocelyn Maclure et Céline Castets-Renard s'appuieront sur leurs travaux en matière d'éthique, de réglementation et d'impacts de l'IA pour examiner comment nous pouvons garantir une utilisation plus responsable et plus équitable de cette technologie. Ils seront rejoints dans la discussion par la modératrice Anna Vartanyan.
[00:01:09] L'événement d'aujourd'hui se déroulera en anglais et en français, ainsi qu'en langue des signes américaine (ASL) et en langue des signes québécoise (LSQ). Nous assurerons également l'interprétation simultanée et le sous-titrage en anglais et en français.
[00:01:30] Les interprètes et les sous-titres apparaîtront sur l'écran de la scène et sur l'écran Zoom pour celles et ceux d'entre vous qui nous rejoignent virtuellement. Pour celles et ceux qui nous rejoignent en personne, pour accéder à l'interprétation simultanée, veuillez scanner le code QR fourni dans la salle, sélectionner la langue de votre choix et appuyer sur Écouter en utilisant votre propre écouteur.
[00:01:52] Pour celles et ceux qui nous rejoignent virtuellement, vous pouvez cliquer sur le bouton de sous-titrage pour activer les sous-titres. Pour utiliser l'interprétation simultanée, cliquez sur le bouton interprétation et sélectionnez la langue que vous souhaitez écouter.
[00:02:16] Si vous vous joignez à nous virtuellement, nous reconnaissons que la reconnaissance des terres qui suit peut ne pas concerner le territoire sur lequel vous vous trouvez actuellement. Si c'est le cas, nous vous demandons de prendre la responsabilité de reconnaître le territoire traditionnel sur lequel vous vous trouvez et les anciens du traité actuel.
[00:02:34] Nous commençons par reconnaître que l'Université McGill, où nous sommes réuni.e.s aujourd'hui, se trouve sur un territoire qui a longtemps servi de lieu de rencontre et d'échange entre les peuples autochtones, y compris les nations Haudenosaunee et Anishinaabeg.
[00:02:51] Les peuples Haudenosaunee et Anishinabeeg ont des liens de longue date avec ce qui est maintenant l'île de Montréal. Kawenote Teiontiakon est un nom Kanien'kéha documenté pour l'île de Montréal. La ville de Montréal est connue sous le nom de Tiotià:ke en Kanien'kéha, et de Mooniyang en Anishinaabemowin. L'Université McGill est située le plus près des communautés de la nation Kanien'kehá:ka de Kahnawá:ke, Kanehsatà:ke et Akwesasne.
[00:03:22] Nous reconnaissons et remercions les peuples autochtones dont la présence marque cette terre sur laquelle nous nous réunissons aujourd'hui, et pour leurs précieuses contributions passées et présentes.
[00:03:36] La série de causeries Voir Grand du Congrès réunit des universitaires et des personnalités publiques pour aborder certaines des questions les plus pressantes de notre époque. Pour le Congrès 2024, la série amplifie le thème « Assurer nos avenirs communs » avec des conversations qui examinent ce qu'il est encore possible de réaliser ensemble - et ce qui doit être fait - face à cet impératif vaste et complexe de produire des solutions pour la génération actuelle et d'assurer les systèmes futurs.
[00:04:07] Vous pouvez participer à la conversation sur les réseaux sociaux en utilisant le hashtag #Congress, Congrès avec un "h" à la fin.
[00:04:14] Au nom de la Fédération et de l'Université McGill, je remercie les principaux commanditaires de la série - la Fondation canadienne pour l'innovation et Universités Canada. Je vous remercie de vous être joint.e.s à nous aujourd'hui. Veuillez accueillir Dr. Roseann O'Reilly Runte, présidente-directrice générale de la Fondation canadienne pour l'innovation, qui présentera la conversation d'aujourd'hui.
[00:04:39] Dr. Roseann O'Reilly Runte : Bonsoir à toutes et à tous, merci Madame Pilote, c'était une excellente introduction au Congrès et au travail que vous avez accompli avec tou.te.s les chercheur.euse.s du pays. J'ai maintenant le plaisir de vous présenter les panélistes d'aujourd'hui.
[00:05:03] Mais tout d'abord, je vais vous expliquer ce qu'est exactement la FCI. Je pense que la plupart d'entre vous savent ce qu'est la FCI, mais au cas où vous ne le sauriez pas, nous avons pour mandat de produire des infrastructures qui doteront les chercheur.euse.s de toutes les disciplines des outils et des installations dont ils ou elles ont besoin pour poursuivre des idées ambitieuses, pour répondre à des besoins sociaux et économiques émergents et parfois urgents, pour saisir les opportunités et créer des idées significatives en vue de trouver des solutions pour la société canadienne.
[00:05:40] Nous avons toujours soutenu la recherche en sciences humaines, mais cette année, nous avons fait un effort particulier pour nous assurer que les chercheur.euse.s en sciences humaines du Canada se sentent les bienvenu.e.s pour demander l'infrastructure dont ils ou elles ont besoin dans un monde de plus en plus numérique.
[00:06:00] Le Congrès offre un forum pour discuter des grandes idées et pour aider à faire progresser notre compréhension des questions évolutives et complexes qui façonnent le monde culturellement riche et diversifié dans lequel nous vivons. Félicitations donc à l'Université McGill pour avoir accueilli l'événement, à la Fédération des sciences humaines pour avoir organisé le Congrès, et je pense vraiment qu'ils sont allés bien au-delà de ce qui était nécessaire
[00:06:31] Parce que ce matin, si vous avez ouvert le Globe and Mail, vous avez vu un article de Geoffrey Hiton sur le thème de l'intelligence artificielle et de son impact sur la société. C'est donc une excellente façon de lancer cette discussion. Merci beaucoup pour cela.
[00:06:41] La causerie Voir Grand d'aujourd'hui - "Façonner l’IA" - reflète parfaitement le thème du Congrès de cette année, à savoir "Assurer nos avenirs communs". Alors que nous continuons à explorer les moyens de relever des défis à multiples facettes par une action concertée entre les disciplines, en nous concentrant sur l'impact inégal et sur les solutions, nous savons que l'intelligence artificielle a pris de l'ampleur et de l'importance, et qu'il est maintenant de notre responsabilité de veiller à ce que la technologie soit utilisée de manière équitable et juste.
[00:07:32] Nous sommes rejoints par deux éminent.e.s universitaires pour la séance d'aujourd'hui. Jocelyn Maclure, membre de la Société royale du Canada et professeur titulaire de philosophie, a été nommé titulaire de la Chaire Jarislowsky sur la nature humaine et la technologie. D'abord connu pour ses travaux en philosophie morale, politique et juridique, il se concentre aujourd'hui principalement sur les questions philosophiques spéculatives et pratiques soulevées par les progrès de l'intelligence artificielle.
[00:08:11] Ses articles les plus récents ont été publiés dans des revues telles que Minds and Machines, AI & Ethics, AI & Society. En 2023, il a été professeur invité Mercator pour l'IA dans le contexte humain à l'université de Bonn, en Allemagne. En dehors du milieu universitaire, il a également présidé la Commission de l'éthique en science et technologie, un organisme consultatif du gouvernement du Québec. Il a également fait partie du comité scientifique de la Déclaration de Montréal pour le développement responsable de l'IA, une déclaration qui a eu un impact considérable dans tout le pays.
[00:09:03] Lorsque je voyage à travers le pays et que je demande à nos chercheur.euse.s : "Que pensez-vous de l'intelligence artificielle?", ils ou elles répondent toujours qu'ils sont fiers que le Canada ait fait une telle déclaration - la Déclaration de Montréal - pour que nous soyons connus comme le pays qui respecte l'éthique dans le développement de l'intelligence artificielle.
[00:09:30] Céline Castets-Renard est titulaire de la chaire de recherche sur l'intelligence artificielle dans un contexte mondial à l'Université d'Ottawa. Elle est également titulaire d'une chaire de recherche sur le droit, la responsabilité et la confiance sociale dans l'intelligence artificielle, baptisée ANITI - Institut de l'intelligence artificielle et naturelle - à Toulouse, en France.
[00:09:59] Elle est membre expert de l'Observatoire de l'économie des plateformes en ligne de la Commission européenne. Elle a été membre junior de l'Institut Universitaire de France et boursière du projet Internet Society, faculté de droit de l'Université de Yale.
[00:10:17] Ses recherches portent généralement sur le droit et la réglementation des technologies numériques et de l'intelligence artificielle dans une perspective comparative. En particulier la protection des données personnelles et de la vie privée, le commerce électronique, les questions éthiques liées à la réglementation des véhicules autonomes, les technologies de maintien de l'ordre, les plateformes en ligne et la cybersécurité - c'est beaucoup - elle étudie également l'impact des technologies sur les droits de l'homme, l'équité et la justice sociale dans une perspective mondiale, en particulier dans les relations nord-sud.
[00:10:59] La table ronde sera animée par Anna Vartanyan. Elle est directrice de l'intelligence artificielle et du développement durable à Mila, l'Institut de l'intelligence artificielle du Québec. Elle a passé plus de 15 ans, et je pense qu'elle a dû commencer avant d'avoir terminé l'école primaire, à travailler pour les Nations Unies, en aidant les pays en développement à passer aux technologies vertes.
[00:11:29] Elle a rejoint Mila pour participer à l'élaboration de sa stratégie de développement durable et se concentrer en particulier sur l'utilisation de l'intelligence artificielle pour lutter contre le changement climatique. Mesdames et Messieurs, veuillez vous joindre à moi pour accueillir le panel.
[00:12:03] Anna Vartanyan : Merci beaucoup Roseann. Nous avons aujourd'hui un sujet très intéressant à aborder : « Façonner l’IA. » Nous allons donc essayer d'aborder la durabilité d'un point de vue plus large et sociétal. En ce qui concerne l'IA, ces dernières années, son vaste déploiement a suscité un grand enthousiasme, mais en même temps, beaucoup d'entre nous ont utilisé ChatGPT, et nous avons modifié des images grâce à l'IA.
[00:12:32] Mais cette excitation et cette nouveauté s'accompagnent également de nombreuses questions sociétales, qu'elles soient globales ou existentielles, telles que "L'IA va-t-elle envahir l'humanité?" ou plus concrètes et spécifiques, "L'IA peut-elle aider ces processus sociétaux? à des questions plus concrètes et spécifiques, telles que "L'IA peut-elle aider ces processus sociétaux?" ou "Peut-elle créer des défis pour nos institutions?" et en termes de vie privée et de droits de l'homme, "Quelles sont les implications de l'IA?"
[00:12:57] Et d'un point de vue plus positif, dans mon propre travail, nous travaillons beaucoup sur le changement climatique, alors quelles sont les implications de l'IA qui peuvent être utiles à la société? Il y a donc beaucoup de questions, et j'espère que nous pourrons en aborder quelques-unes aujourd'hui. Sur ce, j'aimerais donner la parole à Jocelyn.
[00:13:13] Jocelyn Maclure : Très bien, merci beaucoup Anna. Bonjour à toutes et à tous. Merci à la Fédération pour son invitation. Nous allons donc avoir une discussion bilingue aujourd'hui. Je ferai quelques remarques en anglais et Céline suivra en français.
[00:13:30] Très bien, en tant que philosophe, je voudrais vous soumettre quelques distinctions, juste pour essayer de comprendre ce qui se passe avec l'IA aujourd'hui et ce que nous devrions en penser. Je travaille sur l'IA depuis maintenant sept ou huit ans, et je ne suis pas du tout informaticien. J'ai donc eu beaucoup de travail à faire pour comprendre les progrès de l'IA, pourquoi, après quelques décennies de stagnation de l'agenda de recherche, l'IA a-t-elle redémarré?
[00:14:09] Parfois, j'essaie de prendre du recul et de me dire que si je ne m'intéressais pas à l'IA et que j'écoutais, en tant que citoyen concerné, ce qui se dit dans la sphère publique à propos de l'IA, je serais totalement perdu, parce que ce qui se dit est assez éblouissant et que les gens défendent des points de vue très contrastés sur l'IA.
[00:14:42] OK, la première distinction, si nous voulons réfléchir aux impacts de l'IA, à la manière dont elle transformera la vie humaine, doit être faite entre les systèmes d'IA existants qui sont basés sur différentes techniques d'apprentissage automatique, les algorithmes, ce sont les systèmes d'IA que nous utilisons dans de nombreux secteurs de la vie humaine, ce sont les systèmes d'IA qui sont à la base, par exemple, des moteurs de recherche, des médias sociaux et d'autres plates-formes numériques.
[00:15:18] Ce sont les systèmes d'IA que nous pouvons utiliser aujourd'hui pour prendre des décisions de plus en plus importantes dans le système judiciaire, les forces de police, les ressources humaines, etc. Ce sont les systèmes d'IA qui sont derrière ce que nous appelons aujourd'hui l'IA générative, ChatGPT et d'autres grands modèles de langage qui peuvent produire des réponses dans différentes langues naturelles telles que l'anglais et le français, ou qui peuvent produire du contenu tel que des images, des vidéos, etc.
[00:15:56] Ce sont donc ces systèmes d'IA qui transforment aujourd'hui la vie humaine dans pratiquement tous les domaines. Mais lorsque les gens parlent de l'IA et de son impact sur la vie humaine, ils font souvent référence à ce que j'appelle les "systèmes ou technologies d'IA possibles". Des IA que nous n'avons jamais vues, qui ne sont pas encore conçues, qui - mais qui sont logiquement possibles, et vers lesquelles nous pourrions nous diriger si les progrès sont constants, mais il n'y a aucune garantie que nous y parviendrons un jour.
[00:16:31] C'est ce que l'on appelle l'IGA, l'intelligence générale artificielle, l'intelligence de niveau humain et, parfois, la superintelligence artificielle. Les technologies d'IA, les systèmes d'IA qui seraient cognitivement supérieurs aux humains.
[00:16:51] Pour autant que nous puissions en juger, les algorithmes que nous utilisons aujourd'hui et que nous appelons systèmes d'IA ne ressentent rien, n'ont pas d'expérience subjective, n'ont pas d'émotions, ne ressentent rien, ne peuvent pas souffrir, etc.
[00:17:10] Mais de nombreux chercheur.euse.s, et il a été fait référence à l'interview donnée par Geoffrey Hiton dans The Global and Mail ces derniers jours, et Hinton - qui est un pionnier de l'apprentissage profond, il est l'un des parrains du type d'IA que nous utilisons aujourd'hui - pense que c'est probablement une question d'années avant que nous atteignions l'intelligence générale artificielle, et il pense que ces systèmes d'IA - s'ils ne le sont pas déjà - seront en fait conscients ou sensibles. Voilà ce que pense quelqu'un qui a joué un rôle déterminant dans les progrès récents de l'IA.
[00:17:50] Il faut garder à l'esprit que nous n'en sommes pas encore là et que rien ne garantit que nous y parviendrons un jour, car tous les agents cognitifs très sophistiqués, comme les humains et les non-humains, les animaux que nous connaissons, l'intelligence et la conscience sont basées sur la biologie.
[00:18:16] Ce sont des propriétés qui apparaissent dans différents organismes vivants qui s'efforcent de survivre et de s'adapter à l'environnement, à leur monde, etc. Il se pourrait donc que le type d'intelligence multidimensionnelle que nous possédons soit limité, mais que nous ayons construit cette civilisation et ainsi de suite avec ce type d'intelligence, que l'intelligence multidimensionnelle nécessite quelque chose comme un corps qui nous relie au monde, et la capacité de ressentir la douleur et le plaisir, la capacité de souffrir, la volonté de survivre et ainsi de suite.
[00:18:59] Toutes ces caractéristiques de la vie humaine et animale sont peut-être des conditions nécessaires à des formes supérieures d'intelligence comme la nôtre. Ainsi, lorsque nous réfléchissons à la question de savoir s'il est vrai que l'IA crée quelque chose comme un risque existentiel pour l'humanité, cela repose sur l'idée que nous atteindrons l'intelligence générale artificielle et peut-être l'IA consciente à un moment donné dans votre avenir, mais il n'y a absolument aucune garantie que cela soit faisable, n'est-ce pas ? Nous ne pouvons pas exclure la possibilité que nous y parvenions, mais il n'y a absolument aucune garantie que les machines puissent atteindre cet état.
[00:19:40] C'est une chose que nous devons garder à l'esprit. Je ne sais pas combien de minutes il me reste - deux, d'accord. Comme vous pouvez le voir, j'ai ce que j'appelle un point de vue déflationniste sur ces affirmations très fortes concernant l'avenir de l'IA.
[00:20:00] Mais ce que je voudrais ajouter, c'est que nous disposons actuellement de systèmes d'IA très puissants, et que les grands modèles de langage sont très, très impressionnants, nous pouvons les interroger sur des sujets complexes et ils vous donneront des réponses sophistiquées. Ainsi, les systèmes d'IA basés sur l'apprentissage automatique créent des risques éthiques très importants, et nous devons prendre ces risques très au sérieux.
[00:20:32] Je ne veux donc pas minimiser le risque des systèmes d'IA existants et, dans mon travail d'éthicien de l'IA, je pense au problème de la capacité expliquée de l'IA, au fait qu'il s'agit de boîtes noires, qu'elles produisent des résultats, mais qu'elles ne savent pas pourquoi elles ont produit ce résultat particulier, ce qui crée des problèmes majeurs lorsque nous les utilisons pour décider qui va bénéficier d'un prêt ou qui est éligible à la libération sous caution, par exemple, ou qui va être embauché pour un emploi particulier.
[00:21:02] Nous ne pouvons pas fournir d'explications pour les résultats. Ils peuvent être utilisés de différentes manières qui peuvent conduire à différentes formes de discrimination à l'encontre de membres de différents groupes. C'est un sujet dont nous parlerons certainement aujourd'hui. Nous nous appuyons de plus en plus sur l'IA générative, mais nous savons qu'elle peut très souvent produire des réponses exactes, mais qu'elle invente parfois des choses.
[00:21:29] Ils confabulent, ils créent des réponses qui sont très plausibles et qui sont très bien exprimées au niveau de la syntaxe, mais sémantiquement, elles sont parfois erronées, inexactes. Ces outils peuvent donc être utilisés pour générer ces informations, de manière massive, à très grande échelle.
[00:21:53] Nous pourrions donc passer en revue la liste des questions éthiques que ces systèmes soulèvent, et nous pouvons les utiliser - certaines personnes entraînent l'IA générative à créer des avatars numériques d'un proche décédé récemment.
[00:22:11] Elle est utilisée dans toutes les sphères de notre vie, des plus politiques aux plus intimes, et nous ne savons pas encore comment cela va nous changer. C'est pourquoi je pense que nous devons prendre l'IA très au sérieux, et Céline parlera de la réglementation juridique nécessaire. Quoi qu'il en soit, lorsque nous parlons d'éventuelles formes très fortes d'IA, il n'y a aucune garantie que nous y arriverons un jour. Nous devons donc nous concentrer sur le type de risque que l'IA que nous connaissons crée réellement. Merci.
[00:22:47] Anna Vartanyan : Merci beaucoup Jocelyn. Céline, la parole est à vous.
[00:22:51] Céline Castets-Renard : Merci beaucoup, je voudrais remercier les organisateurs de m'avoir invitée. Je suis très honorée d’être ici, je suis toujours ravie de discuter avec Jocelyn, c'est un vrai plaisir.
[00:23:02] Et je vais facilement rebondir sur ce que Jocelyn a dit parce que nous sommes parfaitement d'accord, occupons-nous des risques actuels de l'IA et on verra si d'autres risques arrivent. C'est vrai qu'on a déjà beaucoup de choses à considérer parce que, à mon avis, la problématique la plus importante pour les législateurs, régulateurs et les penseurs de manière générale en ce moment est d'essayer de trier entre les bénéfices de l'IA et les risques de l'IA.
[00:23:31] Et essayer bien sûr de ne pas être trop restrictif pour empêcher les avantages que l'on peut en tirer, notamment et on cite assez souvent le domaine de la santé mais on sait aussi que des risques sont très importants dans le domaine de la santé donc il faut regarder un peu au cas par cas les types d'IA que l'on mets en œuvre, les types de système d'IA, les usages que l'on mets en œuvre et surtout la façon dont on conçoit ces systèmes d'IA.
[00:23:58] Et d'un point de vue juridique, ce que l'on peut d'emblée dire, c'est que ces systèmes d'IA viennent perturber le droit existant et obligent aussi à penser un droit spécifique à l'IA.
[00:24:12] Quant au premier point sur le droit déjà existant, en effet quand on pense aux modèles de langage par exemple, ce sont des modèles qui sont entrainés sur une grande quantité de données qui souvent sont moissonnées sur internet ou dans différentes sources et ces données sont souvent protégées, protégées entant que données à caractère personnel par exemple ou données protégées par le droit d'auteur ou encore des secrets d'affaires.
[00:24:38] Donc on voit déjà qu'on vient porter atteinte à des législations déjà existantes. On peut aussi penser aux problèmes de concurrences parce qu'évidemment ces acteurs de l'IA sont les mêmes acteurs que dans le numérique, on sait que l'on va retrouver des modèles de langage comme Llama développé par Meta, on retrouve Google, on retrouve Microsoft etc. donc les mêmes acteurs qui dominent déjà le numérique.
[00:25:08] Et donc évidemment on se dit que l'IA et toutes les possibilités de l'IA vont venir conforter encore des positions dominantes et donc la place sur le marché, la question de développer des IA alternatives et des modèles peut-être différents est une question difficile parce qu'il faut énormément de ressources, énormément de données et énormément de moyens ce qui rejoints d'ailleurs la question environnementale et la question de la frugalité de ces modèles il faut peut-être penser à une IA qui ne soit pas nécessairement gourmande et faire des choses autrement.
[00:25:45] On sait que de plus petits modèles de langage peuvent être développés et donc il faut aussi intégrer des enjeux environnementaux et aussi peut-être demander à ses acteurs un peu plus d'efforts sur ce point-là.
[00:26:01] Alors au-delà du droit déjà existant, bien sûr la vie privée, les données personnelles, on peut penser à des risques d'une société de surveillance parce que des outils d'IA comme la reconnaissance faciale, par exemple, qui serait déployée à grande échelle dans des espaces publics, évidemment porte atteinte aux libertés, liberté de manifester, liberté d'aller et venir etc.
[00:26:24] Donc beaucoup d'enjeux de droits humains, de droits fondamentaux et donc par rapport à l'ampleur et aux caractéristiques de l'IA aujourd'hui, on pense, on considère qu'il est temps d'adopter une législation, ce qu'a fait l'Europe - l'Europe vient d'adopter un grand règlement, un grand texte - et ce que le Canada est entrain de réfléchir en ce moment au travers du projet de loi C-27 au niveau fédéral, et le Québec a aussi mené des consultations publiques sur la question, notamment de l'encadrement.
[00:26:56] Et donc pourquoi est-ce qu'il faut une loi spéciale? Pourquoi finalement on ne peut pas se contenter du droit que l'on a déjà parce que j'ai cité finalement la vie privée, les données personnelles, principes d'égalité, non-discrimination se sont déjà des choses que l'on connait bien sûr et qui sont déjà protégés.
[00:27:10] Mais ça parait assez difficile de se contenter du droit déjà existant compte tenu des caractéristiques de l'IA et notamment des caractéristiques d'opacité que citait Jocelyn, si on ne prévoit pas dans la loi des moyens d'expliquer, des moyens de transparence, des moyens de contrôle humain des systèmes d'IA bah finalement on va avoir une IA opaque, une IA qui peut-être ne sera pas suffisamment contrôlée par l'humain.
[00:27:36] Et donc si on n'a pas un minimum d'exigences pour savoir comment l'IA doit se faire, ça risque de se faire au détriment des lois déjà existantes, et puis surtout au détriment des intérêts humains.
[00:27:48] Donc a besoin de poser des jalons, poser des règles claires sur la façon de faire une IA acceptable socialement. Il faut aussi aller plus loin probablement et se demander si tous les systèmes d'IA, si tous les usages de l'IA sont bons à prendre et peut-être que dans les différentes possibilités on doit aussi en exclure et décider de ne pas déployer certains systèmes d'IA ou en tout cas certains usages, certaines finalités et donc c'est toute la question des risques que peut produire l'IA dont certains peuvent être considérés comme socialement inacceptables et là dans ces cas-là on déciderait de ne pas déployer ces systèmes d'IA.
[00:28:27] C'est ce que fait l'Union Européenne en désignant 8 systèmes d'IA - je ne vais pas vous faire la liste, je vais vous épargner, mais je vais vous donner un exemple - par exemple, on interdit la notation sociale à la Chinoise, c'est un peu le modèle, l'épouvantail exagéré, mais c'est en tout cas le modèle que l'on ne veut pas en Europe.
[00:28:49] Et on interdit aussi un usage à grande échelle de la reconnaissance faciale dans les espaces publics par les forces de l'ordre - même s'il y a quand même un certain nombre d'exceptions.
[00:28:56] On interdit aussi des systèmes comme ClearView AI qui est l'entreprise américaine qui a collecté des tas de visages sur internet pour entraîner un système d'IA pour vendre ensuite de système d'IA de reconnaissance faciale aux polices, on interdit ce type d'usages par exemple.
[00:29:17] Au Canada dans le projet de loi C-27 que j'ai mentionné on n'a pas prévu d'interdictions malheureusement mais je pense que c'est quelque chose qui devrait être important parce que c'est un moyen aussi pour une société de fixer ses limites et de rappeler ses valeurs et je pense que le Canada pourrait avoir des choses à dire tout autant que l'Europe et sans doute mêmes des choses plus spécifiques au plan culturel par example, de diversité culturelle je pense que le Canada pourrait vouloir interdire certains usages ou certaines finalités.
[00:29:45] Et au-delà de cet exemple des risques inacceptables, ce que l'on peut retenir de ces législations, c'est précisément qu'on adopte une approche par les risques, avec une gradation de risques et donc on va évidemment exiger le respect de certaines obligations pour les systèmes d'IA à haut risque en Europe - ou à incidence élevée comme on dit au Canada.
[00:30:10] Je voudrais aussi vous donner un autre élément au-delà de ces types de légalisations fondées sur les risques, il y a aussi d'autres discussions sur d'autres états notamment aux États-Unis et aux Royaume-Unis qui mettent davantage l'emphase sur la sécurité de l'IA - "AI safety" - et une dizaine de pays aujourd'hui veulent créer un institut d'IA - AI safety Institute - dont le Canada d'ailleurs, le Canada, le Royaume-Unis, les États-Unis, la France aussi.
[00:30:42] Là l'idée est peut-être davantage de protéger les intérêts nationaux, la sécurité nationale, la souveraineté nationale parce qu'on a peur des attaques cyber notamment, tous types d'attaques via l'IA et c'est aussi un enjeu important que l'on peut avoir aujourd'hui. Donc les deux démarches peuvent tout à fait aller ensemble mais en tout cas c'est un petit peu ce qu'il se profile à l'échelle nationale, si on fait une comparaison des différents états membres.
[00:31:13] Et puis aussi, et je terminerai par-là, au niveau internationale aussi les organisations internationales classiques comme l'ONU, commencent à vouloir reprendre un petit peu le leadership, qui a été un peu délaissé jusqu'à présent, l'OCDE est très active aussi et également le Conseil de l'Europe qui a adopté un traité international de l'IA pour signature de tous les états membres du Conseil de l'Europe mais aussi pour d'autres qui souhaiteraient rejoindre ce texte.
[00:31:40] L'UNESCO travaille depuis longtemps sur des principes éthiques qui intègrent une dimension culturelle. Donc, en résumé, on peut dire qu'aujourd'hui on a conscience des enjeux, on pense que les règles déjà existantes ne suffisent pas, qu'elles soient éthiques ou juridiques, donc il faut encadrer spécifiquement l'IA au niveau national et international.
[00:32:05] Anna Vartanyan : J'ai tellement de questions, commençons par vous Céline, vous avez parlé des différences de réglementation entre l'Amérique du Nord et l'Europe. J'aimerais aborder le sujet de l'impact de l'IA sur les inégalités nord-sud à l'échelle mondiale, si vous pouviez nous parler un peu plus de votre travail dans ce domaine et partager avec nous vos connaissances. Je vous remercie de votre attention.
[00:32:27] Céline Castets-Renard : Merci pour la question, il y a beaucoup de points de vues à avoir sur les relations nord-sud. Ce qu'on peut d'emblée dire c'est que les "Global South", le Sud Global, j'aime pas trop cette expression parce que les réalités sont tellement différentes mais bon, prenons ce terme, les états qui constituent ce Sud Global aujourd'hui ont bien conscience des enjeux de l'IA et ne veulent pas se laisser distancier et ne veulent pas surtout se voir imposer des normes du Nord donc il y a d'ores et déjà un réveil dans les institutions internationales, ce qui est heureux.
[00:33:00] Et c'est vrai que là il y a un double risque de colonisation, disons-le, par la technologie, par la norme internationale donc c'est vrai qu'il est important que les états expriment non seulement le type d'encadrement qu'ils souhaiteraient avoir, mais plus encore, il est important que la société civile, les individus s'emparent de ces questions-là et puissent dire aussi quelles sont les problématiques auxquelles ils font face et est-ce que l'IA est utile pour répondre à leur problématique je pense que ça doit toujours être la première question pour tout le monde pas que pour le Sud.
[00:33:38] Et peut-être que les problèmes sont spécifiques, et peut-être que les solutions du Nord ne correspondent pas aux solutions du Sud. Au-delà de ça, on sait aussi que les données qui sont utilisées pour entraîner des systèmes d'IA, pour que le système soit efficace et pour qu'on puisse espérer une aide de l'IA, il faut que les données correspondent à la population à laquelle on va l'appliquer donc il y a aussi une question de situation des données, de localisation des données, de situation de l'IA - pour reprendre l'expression de "savoir situés" de Sandra Harding - mais c'est vrai que là l'idée est quand même d'essayer d'apporter quelque chose de spécifique et donc il faut évidemment que les pays du Sud soient impliqués dans les solutions qui leur seront appliquées.
[00:34:24] Je suis quand même inquiète - là c'était le beau discours - mais je suis quand même inquiète parce qu'on voit aussi que le Sud sert souvent, malheureusement, à des tests, des tests de technologies, sert aussi à une possibilité de captation de données personnelles très facilement.
[00:34:44] Par exemple au Sénégal Microsoft propose des outils dans les écoles, des outils pédagogiques dans les écoles gratuitement en échange de la collecte de données des étudiants, donc c'est quand même inquiétant.
[00:34:58] On sait aussi que les outils de surveillance - tous les états sont très friands des outils de surveillance en réalité - et les pays du Sud ne font pas exceptions et donc du point de vue de la démocratie, et du poids de certains gouvernements dans le Sud on sait aussi que des partenariats ont pu être signés avec la Chine mais aussi avec les États-Unis.
[00:35:27] On teste aussi des solutions, dans des légalisations, dans des endroits où on sera moins surveillés, les endroits où il y aura peut-être des autorités de protections des données personnelles mais qui ne sont pas très fortes et donc les choses que l'on ne peut pas faire chez soi, on va les tester ailleurs et ça c'est quand même regrettable, plus que regrettable.
[00:35:48] Anna Vartanyan : Merci beaucoup. Pour faire suite à votre réponse à la question - je m'adresse à vous deux en fait - lorsque les objectifs de développement durable ont été élaborés, l'IA n'était pas vraiment à l'ordre du jour, c'était encore une technologie qui existait, mais elle n'était pas aussi préoccupante qu'elle l'est aujourd'hui.
[00:36:11] Comment pensez-vous que cela peut être intégré maintenant, alors que le G7 est en 2023, pouvons-nous vraiment attendre 2030 pour commencer à en discuter, et si ce n'est pas le cas, comment pouvons-nous commencer à l'intégrer dès maintenant, à la fois du point de vue de l'inégalité, mais aussi du point de vue de l'accès à la numérisation et à la technologie, qui est un autre sujet. Quelle est votre opinion à ce sujet? Comment l'intégrez-vous?
[00:36:35] Jocelyn Maclure : Merci pour cette question. Elle n'est pas facile. Heureusement, de plus en plus de chercheurs travaillent sur l'IA pour atteindre nos objectifs de développement durable, mais aussi sur les impacts environnementaux des technologies actuelles de l'IA.
[00:36:57] Comme pour les autres questions sociétales liées à l'IA, je pense que nous devrions partir d'une position d'ouverture d'esprit et examiner les utilisations réelles et les effets, les impacts des technologies de l'IA. Dans ce domaine, nombreux sont ceux qui disent : oui, nous pouvons certainement utiliser l'IA pour atteindre nos objectifs.
[00:37:25] L'apprentissage automatique permet notamment de mettre au point des algorithmes prédictifs qui pourraient être utilisés pour prévoir quand un bâtiment particulier aura besoin de plus d'énergie, mais aussi quand nous pourrons réduire l'énergie consommée et utilisée dans des bâtiments comme celui-ci, afin d'optimiser la façon dont nous consommons l'énergie. C'est donc très prometteur, et j'espère que les chercheurs travaillent dur pour mettre au point des algorithmes concrets que nous pourrons utiliser pour consommer moins d'énergie.
[00:38:06] Nous en entendons parler, mais ils ne sont pas déployés à grande échelle. Mais j'espère que nous y parviendrons. L'IA peut également être utilisée d'autres manières. Je pense que vous y avez fait allusion, nous pouvons les utiliser pour prédire où nous devrions planter plus d'arbres, ou où il est plus probable que nous ayons des incendies dans les forêts, ou nous pouvons les utiliser comme des algorithmes de machine pour suivre et surveiller les espèces en voie de disparition et élaborer de meilleures politiques pour les protéger.
[00:38:51] Ce sont toutes des applications intéressantes, mais il semble que l'échelle ne soit pas du tout ce qu'elle devrait être au regard des besoins que nous avons. D'un autre côté, en faisant preuve d'ouverture d'esprit mais aussi de réalisme, nous devons reconnaître que nous avons besoin d'une énorme quantité d'énergie rien que pour entraîner un grand modèle linguistique ou n'importe quel type de réseaux neuronaux profonds. Nous avons besoin de beaucoup d'énergie pour les former, pour avoir vos centres de données, même dans un Québec riche en hydroélectricité, nous ne pouvons pas vraiment avoir de nouveaux centres de données. Nous n'avons pas la capacité nécessaire.
[00:39:27] Le secteur de l'IA peut-il compenser la consommation d'énergie ? Ce serait déjà énorme, mais nous n'en sommes pas encore là. L'autre aspect est qu'il ne s'agit pas d'un secteur de l'économie entièrement dématérialisé, vous avez besoin de toutes ces puces puissantes, vous avez besoin de superordinateurs très puissants, vous avez besoin du matériel, et très souvent les ressources naturelles sont extraites dans le Sud global avec des travailleurs qui sont exploités, etc.
[00:40:01] Pour l'instant, je ne pense pas que le tableau soit très positif. J'espère qu'il deviendra plus positif au fur et à mesure que nous avancerons, mais je pense que, encore une fois, la priorité est de savoir comment réduire ces coûts et ces impacts environnementaux, et pour l'instant, je pense que nous n'y sommes pas encore.
[00:40:24] Céline Castets-Renard : Je suis bien d'accord avec ce que Jocelyn vient de dire, et j'ai vraiment l'impression qu'on a des politiques environnementales et des politiques de l'IA et que finalement on va évoquer de temps en temps la problématique des ressources, surtout pour des raisons géopolitiques parce qu'on a besoin d'aller extraire des minéraux ailleurs ou parce qu'on a besoin des micro-processeurs qui se trouvent dans d'autres pays donc ça génère une vision géopolitique un peu plus globale et du coup environnementale de ce que ça peut représenter.
[00:40:57] Mais j'ai pas l'impression que l'on fasse assez d'effort pour relier les sujets et peut-être pour avoir plus d'exigences sur les acteurs les plus puissants parce que finalement si on attends trop pour avoir ces obligations, des obligations par exemple de minimiser l'utilisation des ressources par exemple, si on attends trop ça veut dire que les acteurs dominants seront capables, seront déjà suffisamment riches, suffisamment bien installés et donc pour eux ça ne sera pas très difficile de répondre à des nouvelles règles, on le voit systématiquement.
[00:41:37] Alors que des nouveaux acteurs, des acteurs plus petits risquent de disparaître. Donc c'est toujours cette question d'attendre des réglementations, il faut toujours se dire que ça encourage les premiers, c'est toujours la prime aux leaders donc il ne faut pas perdre de vue que si l'on attends trop, et si on ne pose pas des exigences dès maintenant, on aura du mal à avoir une diversité des leaders parce que ça coûtera trop cher de se mettre en conformité alors que si le marché s'organise d'emblée, avec des exigences environnementales, se sera plus facile de s'adapter parce que l'on intégrera dès le départ.
[00:42:13] Et j'ajouterai que dans ces politiques publiques - donc environnement/IA - il y a aussi des encouragements financiers, fiscaux, et des encouragements en recherche peut être aussi qu'on peut mettre plus de ressources pour encourager des modèles qui consommeraient moins, pour encourager des réflexions sur des systèmes d'IA moins gourmands, ou qui répondraient peut être à des questions plus pointues plutôt que de vouloir faire large, d'avoir ces modèles à usage général et donc par définition qui servent à tout mais la puissance que ça implique pose quand même la question d'autres choix d'avoir une IA un peu plus spécifique d'orfèvrerie.
[00:43:01] Et c'est vrai que c'est ce modèle américain - parce que c'est très dominé par des entreprises américaines - c'est aujourd'hui ce modèle qui a pris le marché mais on devrait peut-être - tant qu'il est encore temps - essayer de réfléchir à d'autres types d'IA et à financer des recherches, et à encourager fiscalement encore une fois des start-ups ou des équipes de recherche qui essayent de penser autrement.
[00:43:30] Anna Vartanyan : Merci beaucoup à vous deux. Vous avez abordé tellement de nombreux points importants et très proches de mon cœur. Pour notre public, la plupart des applications à forte intensité de carbone sont liées à de grands modèles de langage tels que ChatGPT, mais les applications positives de l'IA, telles que le changement climatique, ne sont pas si intenses en carbone que cela.
[00:44:04] Par exemple, une entreprise montréalaise, Whale Seeker, fait un travail incroyable pour protéger la biodiversité des mammifères. C'est une entreprise extraordinaire, qui fait la fierté de Montréal, et je n'ai pas pu résister à l'envie de la mentionner. Je vais maintenant donner la parole au public et j'aurai quelques questions supplémentaires si nous avons le temps à la fin, mais voyons d'abord le public. [...] Personne ne veut briser la glace ? Nous y voilà.
[00:45:07] Membre du public : [...] J'ai l'impression qu'une grande partie de la société ou de la civilisation est fondée sur les emplois, et j'ai l'impression que même les progrès actuels de l'IA supprimeraient une grande partie des emplois, et je sais que plus nous sommes équipés de l'IA, plus elle nous offre d'opportunités. Par exemple, mon père n'a toujours pas appris à utiliser un téléphone portable. Je n'ai toujours pas appris à utiliser Instagram. Je pense donc qu'il existe une courbe d'apprentissage qui ne changera pas pour les humains. Ma question porte davantage sur les initiatives en cours, sur l'espace nécessaire pour que ces progrès soient les plus durables possible.
[00:46:25] Jocelyn Maclure : Merci pour votre question, et j'ai dû découvrir Instagram ces dernières années à cause de mes enfants essentiellement et je peux vous assurer que vous ne passez pas à côté de quelque chose de précieux ou d'important à ce que je sache, bien au contraire. Mais plus sérieusement, c'est une très bonne question, et la façon dont vous y répondez, en particulier en ce qui concerne les impacts de l'IA sur le travail, sur la place du travail dans notre vie, sur la disponibilité de bons emplois bien rémunérés, dépend vraiment de votre attitude à l'égard du développement futur de l'IA.
[00:47:07] Pour revenir à Geoffrey Hinton, dans cette même interview, il dit que nous serons bientôt au chômage, tous autant que nous sommes. Pas seulement ceux qui font du travail manuel, physique, mais aussi ceux qui font du travail cognitif. Je ne suis pas d'accord avec lui, quand on regarde les limites des meilleurs modèles d'IA actuels, cela nous indique que nous ne sommes pas sur le point d'être remplacés. Bien sûr, il peut y avoir quelques exceptions, certains d'entre nous sont plus vulnérables ici et là, mais dans l'ensemble, je pense que l'impact le plus probable est que dans de nombreux domaines, l'IA sera intégrée dans le marché du travail, dans l'environnement de travail, et beaucoup d'entre nous devront apprendre à travailler avec l'IA.
[00:47:58] L'expertise et le jugement humains sont toujours nécessaires pour s'assurer que nous sommes en mesure de dire que ce n'est qu'une confabulation faite par les grands modèles de langage, ou que ce résultat provient en fait d'un préjugé contre un groupe, ou d'avoir la capacité d'expliquer et de justifier nos décisions, etc.
[00:48:43] À bien des égards, l'intelligence humaine reste donc nécessaire. Je pense donc qu'il s'agit plutôt de savoir comment nous apprenons à travailler avec l'IA pour qu'elle augmente nos capacités, mais que nous soyons conscients de ses limites, et aussi, pour conclure, si nous nous fions aveuglément aux grands modèles de langage, nous serons souvent trompés, parce que les réponses sont toujours très plausibles. Elles sont si bien structurées, mais si nous ne connaissons pas un domaine, nous ne saurons pas qu'elles sont en fait fausses, inexactes ou pas assez spécifiques. Je ne cesse de répéter que nous devons continuer à cultiver l'expertise et le jugement humains, car il n'est tout simplement pas vrai que la meilleure IA puisse remplacer l'intelligence humaine à l'heure où nous parlons.
[00:49:38] Céline Castets-Renard : Je voudrai simplement rajouter que je suis encore une fois d'accord avec Jocelyn, et pour avoir un vrai contrôle humain, effectivement il faut garder une expertise, et tout un champ de recherche et d'expérience se développe qui concerne justement l'interaction humain/machine et je pense qu'aujourd'hui c'est tout à fait ce à quoi on doit penser, qu'est-ce que l'humain fait le mieux et qu'est-ce que la machine fait le mieux?
[00:50:04] Au-delà de ça, je pense aussi qu'il faut faire attention de ne pas déléguer des tâches intéressantes - un professeur de Columbia, Tim Wu disait il y a quelques temps à propos du droit, des professions légales de plus en plus d'outils intègrent de l'IA parce que ce sont des métiers très documentaires donc c'est sûr que l'IA est très utile pour faire de la recherche, pour trier des dossiers, pour chercher des éléments de preuves, etc. donc c'est tout à fait utile. Mais par exemple ça serait complétement dommageable de déléguer à la machine la stratégie juridique parce que ça c'est quelque chose qui nous stimule intellectuellement.
[00:50:42] Et c'est assez facile finalement, on pourrait poser la question à un modèle de langage "qu'est-ce que je dois faire dans ce cas-là?" puis il nous donnerait plusieurs façons de faire et ça deviendra un peu de la paresse intellectuelle de notre part, donc je pense qu'il faut quand même continuer non seulement à être formé, à avoir un regard critique et à garder l'expertise, mais aussi à garder l'intérêt de notre travail parce que si on est juste là pour contrôler ce que fait l'IA ou à aller labéliser des données ou labéliser des informations, c'est vraiment plutôt triste d'être humain dans ce contexte-là. Donc voilà, je pense qu'il faut qu'on garde la part intéressante de nos métiers.
[00:51:24] Anna Vartanyan : Merci à vous deux. Je pense qu'il y a une autre question.
[00:51:31] Membre du public : Professeure Castets-Renard, vous avez parlé de la diversité des organisations et de son importance dans le domaine de l'IA, mais j'ai l'impression que les investissements gouvernementaux dans l'IA - y compris tous nos instituts de recherche - vont dans la technologie, mais pas dans les différentes formes d'organisation, comme par exemple la possibilité d'avoir plus d'organisations de développement de l'IA à but non lucratif dans les coopératives, les collectifs, les fiducies de données. Le gouvernement ne veut pas - semble-t-il - investir dans les formes organisationnelles et la recherche sur ces formes organisationnelles.
[00:52:20] Céline Castets-Renard : C'est une bonne question, la part de financement des gouvernements et les choix qui sont faits - je peux parler de ce que je connais - je connais un petit peu plus le financement français en ce moment parce qu'il vient d'y avoir l'annonce du gouvernement Macron qui, en réalité, n'est pas une annonce très très forte pour l'IA, le montant du financement est plutôt faible parce que c'est une période ou les ressources budgétaires des états sont quand même assez limitées et je pense que les priorités en France vont ailleurs notamment sur tout un tas de construction dans le cadre des JO 2024.
[00:52:58] Pour le gouvernement canadien, pour toute proportion gardée, je trouve que l'investissement est plus élevé, je pense aussi - et là on est enregistré tant pis - je pense qu'il y a toute une stratégie pan-canadienne de l'IA qui est mise en oeuvre par CIFAR (note de l'éditeur: Institut Canadien de Recherches Avancées) au sein de trois instituts d'IA et aujourd'hui pour la part recherche c'est surtout le Mila, je pense que je ne me trompe pas en le disant à Montréal qui reçoit la part la plus importante.
[00:53:27] Les deux autres instituts à Edmonton et à Toronto, l'Institut Vector en particulier, sont peut être plus soutenues par des entreprises ou en tout cas on encourage plus l'IA industrielle ou les applications mais en tout cas la partie recherche me paraît quand même plutôt située à Montréal.
[00:53:47] En tout cas tous les gouvernements, je pense que ça c'est ce qu'on peut dire un peu de manière générale, et je pense que c'est vrai autant aux États-Unis qu'ailleurs, tous les gouvernements essayent d'encourager les partenariats publiques et privés donc faire en sorte que les chercheurs, que la recherche fondamentale puisse devenir de la recherche appliquée, puisse être opérationnelle pour les entreprises locales et qu'il y ait un retour sur investissement, si je puis dire, pour les entreprises locales et ultimement pour la population.
[00:54:13] Ce qui n'est pas facile parce qu'un peu partout ce qu'on constate c'est que dès qu'il y a une entreprise qui marche bien, une start-up qui marche bien elle a tendance à être rachetée par de plus grandes entreprises, surtout américaines et on a ce grand débat en ce moment en France pacre qu'il y a un modèle de language - Mistral AI que vous connaissez peut-être - qui "menace" de quitter la France et l'Europe parce qu'il n'y a pas les moyens, il n'y a pas le passage à l'échelle nécessaire et ça fait partie des discussions en Europe de créer un marché des capitaux pour pouvoir être à la hauteur du financement supérieur nécessaire qu'on trouve plus facilement aux États-Unis.
[00:54:54] Donc il y a vraiment beaucoup de questions et beaucoup d'éléments de réponse et c'est vrai que c'est un jeu international et dès qu'une entreprise marche bien et a un bon produit, la tendance est quand même d'aller voir les américains pour avoir un meilleur financement.
[00:55:10] Anna Vartanyan : Je sais que nous manquons de temps mais je voudrais mentionner que Mila est l'un des - comme Céline l'a dit - instituts de recherche sur l'IA, nous sommes une organisation à but non lucratif, l'autre est Vector à Toronto et en Alberta c'est Amii et comme je l'ai dit, Mila est une organisation à but non lucratif et nous faisons différents types de recherche et la santé et l'environnement où je me spécialise et aussi la recherche appliquée.
[00:55:33] L'objectif de Mila est de mettre l'IA au service de l'humanité. Il est important de savoir que nous avons cette capacité en interne à Montréal, et beaucoup de merveilleux informaticiens et non informaticiens qui font un excellent travail.
[00:55:55] Je pense que nous n'avons plus beaucoup de temps. Nous sommes en fait à court de temps, alors je voudrais juste remercier Jocelyn, Céline pour une merveilleuse discussion en apportant votre passion aujourd'hui à cette salle et remercier le public qui a posé des questions et ceux qui ont écouté en ligne et sur ce, je donne la parole à Annie.
[00:56:14] Annie Pilote : Merci beaucoup à nos panélistes, Jocelyn Maclure et Céline Castets-Renard, et à notre modératrice, Anna Vartanyan, pour cette conversation qui a suscité la réflexion. Au nom de la Fédération des sciences humaines et de l'Université McGill, nous remercions les principaux commanditaires de la série Voir grand qui ont soutenu cet événement : La Fondation canadienne pour l'innovation et Universités Canada.
[00:56:44] Si vous souhaitez revoir cette conversation, la vidéo sera disponible sur la plateforme du Congrès dans les prochains jours et vous pourrez la visionner jusqu'au 31 juillet 2024. La conversation d'aujourd'hui est la première des événements "Big Thinking" du Congrès 2024. J'espère que vous avez trouvé cette conversation aussi instructive et stimulante que moi, alors que nous continuons à réfléchir sur le thème de la durabilité des avenirs partagés.
[00:57:14] La prochaine causerie Voir Grand, "Soutenir les cultures", avec Janine Elizabeth Metallic, Ryan DeCaire et Mskwaankwad Rice, aura lieu le dimanche 16 juin, de 12h15 à 13h15.
[00:57:29] Pendant que le Congrès se poursuit, vous pouvez participer à la conversation sur les médias sociaux en utilisant le #Congressh. Je vous invite également à répondre à notre petite enquête sur votre expérience lors de la conférence "Big Thinking" d'aujourd'hui, en utilisant votre appareil mobile, vous pouvez scanner le code QR sur l'écran derrière moi ou sur les panneaux affichés à la porte pour partager vos commentaires.
[00:57:54] Merci à tous ceux qui nous ont rejoints aujourd'hui. Je vous invite à profiter du reste de la journée et des prochaines sessions du Congrès. Merci et au revoir.