Congrès en Conversation - Partie I avec Christopher Dietzel

Balado
16 novembre 2023

Picture of the Big Thinking Podcast microphone with a headset

 

Introduction | À propos de l'invité | La recherche de Christopher Dietzel au Congrès | Transcription | Suivez nous

 

Introduction

Bienvenue au Congrès en Conversation, une série spéciale présentée par le balado Voir Grand et la Conversation Canada, dans laquelle nous invitons les chercheur.euse.s qui participent au Congrès à partager leurs recherches et leurs expériences dans le contexte de notre reponsabilité commune envers notre société, nos systèmes et notre planète.

Pour cet épisode, notre hôte Nehal El-Hadi, journaliste, rédactrice en chef et productrice à La Conversation Canada est accompagnée par Christopher Dietzel, chercheur postdoctoral à l'Université Concordia.

 

À propos de l'invité

Photo de Christopher Dietzel

 

Christopher Dietzel est un chercheur postdoctoral dont les travaux explorent les intersections entre le genre, la sexualité, la santé, la sécurité et la technologie. Il collabore au projet iMPACTS, au Digital Intimacy, Gender, and Sexualities (DIGS) Lab et au Sexual Health and Gender (SHaG) Lab, et il est cochercheur sur la Digitally Informed Youth (DIY) Digital Safety. Les projets récents de Christopher Dietzel se concentrent sur les expériences des personnes LGBTQ+ avec les applications de rencontres et les médias sociaux, et il étudie les obstacles, les préjudices et la violence auxquels les personnes sont confrontées lorsqu'elles utilisent ces plateformes numériques.

 

 

La recherche de Christopher Dietzel au Congrès

L'article de recherche de Christopher Dietzel est intitulé « Beyond the swipe: Interrogating dating app approaches for sustaining user safety »

Les applications de rencontres telles que Tinder, Bumble et Grindr facilitent les rendez-vous, les rencontres et l'amitié, mais les individus peuvent subir toute une série de préjudices émotionnels, physiques, sexuels, financiers, sociaux et culturels en ligne et en personne. Cette étude examine dans quelle mesure les applications proposent des politiques, des fonctionnalités et des aides suffisantes pour répondre à l'éventail des préjudices que peuvent subir les différent.e.s utilisateur.trice.s. Pour ce faire, nous avons analysé les politiques de modération du contenu, les conditions générales, les dispositifs de sécurité et d'autres mécanismes intégrés à l'application de 30 applications de rencontres populaires au Canada. Les résultats mettent en lumière les politiques, les caractéristiques et d'autres aspects de l'expérience de l'application qui améliorent et/ou entravent la sécurité des divers utilisateur.trice.s et révèlent des lacunes dans les mesures de sécurité. Les résultats seront utilisés pour créer une carte interactive de la sécurité des rencontres numériques, un outil que les gens peuvent utiliser pour comparer les mécanismes de sécurité et les risques des applications, ce qui permet aux individus d'être mieux informé.e.s et d'agir plus efficacement lorsqu'ils prennent des décisions en matière de rencontres liées à la technologie.

[00:00:07] Nehal El-Hadi : Bienvenue au Congrès en Conversation, une série spéciale présentée par le balado Voir Grand et la Conversation Canada, dans laquelle nous invitons les chercheur.euse.s qui participent au Congrès 2024 à partager leurs recherches et leurs expériences dans le contexte de notre responsabilité commune envers notre société, nos systèmes et notre planète.

[00:00:26] Je m'appelle Nehal El-Hadi, journaliste, rédactrice en chef et productrice à La Conversation Canada, et je serai votre hôte pour cette rubrique spéciale du Congrès en Conversation. Aujourd'hui, je suis accompagnée de Christopher Dietzel, boursier postdoctoral à l'Université Concordia, dont les projets récents portent sur l'expérience des individus avec les applications de rencontres.

[00:00:56] Comment en sommes-nous arrivés là? Comment êtes-vous arrivés ici?

[00:01:00] Christopher Dietzel : L'histoire commence en fait lorsque je faisais mon doctorat. Je travaillais en tant qu'assistant de recherche avec une bourse qui portait sur la violence sexuelle. J'ai eu une conversation informelle avec quelques collègues - d'autres assistant.e.s de recherche à l'époque - sur leurs expériences avec les applications de rencontres.

[00:01:19] L'une des assistantes de recherche en particulier m'a dit qu'elle avait un rendez-vous ce soir-là, mais qu'elle était très frustrée parce que, même si elle était très intéressée par lui, il lui avait envoyé des photos indécentes non sollicitées.

[00:01:32] Bien que cette expérience particulière ne semble pas hors norme pour beaucoup de personnes, en particulier parce que j'avais cette conversation avec des collègues dans le cadre d'une subvention sur la violence sexuelle, j'ai commencé à m'intéresser à la manière dont cette expérience quotidienne banale de réception de photos indécentes non sollicitées pouvait correspondre à l'expérience des personnes queer.

[00:01:51] En pensant plutôt à un homme hétérosexuel et à une femme hétérosexuelle, comment les hommes queer, par exemple les hommes gays, pourraient-ils vivre l'envoi et la réception de photos indécentes non sollicitées? Par exemple, tout simplement, qualifieraient-ils cela de violence sexuelle? C'est cette question qui a été à l'origine de mon doctorat, et c'est ce que j'ai fini par étudier.

[00:02:11] J'ai étudié les expériences de violence sexuelle des hommes gays et queers liées à leur utilisation des applications de rencontres. Et puis, bien sûr, cela s'est transformé en un champ d'étude plus large où j'étudie maintenant les expériences de sécurité et de santé des personnes LGBTQ+ liées à leur utilisation de la technologie, ce qui inclut les applications de rencontres, mais aussi les réseaux sociaux et d'autres plates-formes. Je suis donc très, très intéressé par la façon dont ces expériences quotidiennes d'utilisation de la technologie peuvent avoir un impact sur leur compréhension et leur expérience de la sécurité.

[00:02:40] Nehal El-Hadi : Quelles sont les conclusions de votre thèse?

[00:02:42] Christopher Dietzel : Oui, ce que j'ai découvert dans le cadre de mon doctorat et des études que j'ai menées depuis, c'est que les personnes queer racialisées, en particulier, peuvent vivre plus - pas nécessairement plus - mais elles peuvent vivre la violence sexuelle et les questions de consentement différemment par rapport aux personnes blanches ou non racialisées.

[00:02:57] Par exemple, les personnes racialisées peuvent être exploitées, fétichisées, on peut profiter d'elles, et elles peuvent être victimes de racisme sexuel car le processus de consentement est compliqué, ce qui peut, bien sûr, avoir des conséquences sur leur sécurité et leur santé.

[00:03:15] Nehal El-Hadi : Et donc, comment les règles du consentement sont-elles considérées différemment, par exemple lorsque vous utilisez une application de rencontre? Et par extension, que signifie la sécurité hors ligne et en ligne?

[00:03:26] Christopher Dietzel : La sécurité est un élément très intéressant car, une fois encore, l'identité est un facteur important. Nous avons tendance à penser que les espaces numériques sont neutres, mais ce n'est pas le cas. Non seulement à cause des personnes avec lesquelles nous interagissons, mais aussi à cause de la technologie elle-même.

[00:03:39] Ce que nous ne réalisons toujours pas, c'est qu'il existe des algorithmes, une intelligence artificielle, des mécanismes derrière l'écran qui peuvent avoir un impact très important sur la façon dont les gens se sentent ou sont en sécurité en ligne. Et bien sûr, cela a des répercussions sur leurs expériences hors ligne.

[00:03:55] Pour vous donner un exemple, les personnes transgenres peuvent utiliser des applications de rencontre et s'engager dans la vérification d'identité, qui prend une photo et la compare à d'autres photos que vous téléchargez ou partagez sur un site. Pour une personne trans, dont le genre peut changer, ou qui peut avoir une présentation ou une expression moins binaire de son genre, cela peut compliquer la façon dont la vérification sera effectuée.

[00:04:19] Quelqu'un qui n'a pas fait son coming-out ou qui n'est pas à l'aise avec le fait de se présenter publiquement dans l'un de ces espaces en ligne peut également ne pas se sentir en sécurité ou à l'aise pour vérifier son identité. Ces types de systèmes, qui pourraient être contrôlés par l'IA ou des algorithmes, peuvent donc créer un espace où si quelqu'un ne vérifie pas son identité, quelqu'un d'autre pourrait le percevoir comme n'étant pas authentique, ou, vous savez, cela pourrait être perçu comme un signal d'alarme, ou pour la personne qui décide de ne pas s'engager dans ces systèmes de vérification de l'identité, cela peut en fait être plus sûr pour elle.

[00:04:56] Nehal El-Hadi : Alors, comment trouvez-vous que les applications gèrent cela?

[00:05:02] Christopher Dietzel : Oui, c'est une excellente question qui ouvre la voie aux recherches que nous menons et que nous présenterons au Congrès des sciences humaines.

[00:05:10] Je travaille donc avec une équipe de chercheur.euse.s, et je suis à Concordia, je fais un postdoc à Concordia, avec la doctorante Stephanie Duguay, et nous faisons tous les deux parties d'une équipe de quelques chercheur.euse.s, nous avons une subvention Savoir du CRSH qui est dirigée par la Professeure Diana Parry de l'Université de Waterloo.

[00:05:26] Notre projet porte sur les expériences des utilisateurs d'applications de rencontres en matière de sécurité et sur la façon dont ces applications construisent la sécurité. Pour en revenir à votre question, nous n'en sommes qu'aux premières étapes de ce projet de recherche, mais c'est une question à laquelle nous essayons de répondre, Stéphanie et moi, dans le cadre de nos recherches à Concordia.

[00:05:45] Nous nous intéressons plus particulièrement à la façon dont les applications de rencontres construisent ces notions de sécurité et aux mécanismes dont disposent les utilisateurs pour être et se sentir en sécurité en ligne et hors ligne. Pour répondre à cette question, nous procédons à une analyse des politiques, c'est-à-dire des politiques de modération du contenu et des politiques de protection de la vie privée.

[00:06:08] Nous examinons les lignes directrices de la communauté ainsi que les différents conseils de sécurité et autres informations relatives à la sécurité disponibles dans les applications. Nous faisons également un tour d'horizon des applications elles-mêmes, de la minute où vous téléchargez l'application à celle où vous la supprimez, en passant par toutes les interactions que vous pouvez avoir tout au long de cette expérience.

[00:06:30] Nous souhaitons comprendre les fonctionnalités disponibles pour l'utilisateur lambda afin de contribuer à sa sécurité. Nous nous intéressons donc au blocage et au signalement, à la mesure dans laquelle vous pouvez inclure des pronoms dans votre profil, aux photos que vous partagez, à la manière dont les éléments sont traités, à la manière dont vous pouvez envoyer des messages ou rester anonyme, à toutes ces différentes fonctionnalités intégrées dans les applications et nous les analysons pour voir comment elles peuvent être plus ou moins sûres pour les différents utilisateur.trice.s.

[00:07:04] Nehal El-Hadi : Puis-je vous demander si vous utilisez vous-même ces applications? 

[00:07:06] Christopher Dietzel : Bien sûr, et oui, je les utilise.

[00:07:09] Nehal El-Hadi : D'accord, alors comment, comment cette recherche a-t-elle changé la façon dont vous utilisez les applications?

[00:07:15] Christopher Dietzel : Tout d'abord, cela a eu un impact sur la façon dont j'interagis avec les autres, non seulement en ligne, mais aussi hors ligne, surtout lorsque je me suis présenté comme un chercheur qui étudie la sécurité, le consentement, la violence sexuelle, le racisme sexuel et toutes ces choses. Certaines personnes sont vraiment intriguées par cela et d'autres sont en fait rebutées.

[00:07:36] Certains interprètent cela comme une analyse de tout ce qu'ils font et de tout ce qu'ils disent. Et ils perçoivent cela comme si j'imposais un ensemble de valeurs à nos interactions ou à nos interactions potentielles. Il m'est également arrivé à maintes reprises que des gens me demandent tout simplement si - alors que j'interagissais avec eux - s'ils étaient le sujet d'une étude de recherche. Et je leur réponds que non, que je suis juste là pour des raisons personnelles, que je veux juste utiliser les applications comme tout le monde. Alors oui, cela a eu un impact.

[00:08:06] Nehal El-Hadi : C'est très intéressant. Mais revenons un peu aux applications. Quelles sont celles sur lesquelles vous travaillez en particulier?

[00:08:13] Christopher Dietzel : Nous avons en fait 30 applications que nous examinons. Nous avons identifié les 30 applications les plus populaires au Canada. Il y a donc une grande diversité parmi ces 30 applications que nous étudions.

[00:08:23] Nous avons les applications les plus courantes ou les plus populaires comme Bumble, Tinder et Grindr, ainsi que des applications plus petites qui s'adressent spécifiquement à certaines populations.

[00:08:34] Nous avons donc Christian Mingle, Salams, SilverSingles. Nous avons une grande variété afin de nous assurer que nous avons capturé une gamme d'expériences, y compris une gamme d'expériences de personnes ayant des identités diverses ou marginalisées.

[00:08:51] Nehal El-Hadi : D'accord. Et à quel stade de la recherche en êtes-vous?

[00:08:55] Christopher Dietzel : Nous en sommes encore au stade de l'analyse des données. Je suis en train de lire les politiques et procédures, tous les documents de ces 30 applications de rencontres. Je regarde leurs politiques de modération de contenu, leurs conseils de sécurité, leurs lignes directrices, etc.

[00:09:11] C'est beaucoup de lecture. Et vous savez, quand vous cliquez sur le petit bouton des conditions générales qui dit "Oui, j'accepte" sans lire, eh bien, je suis en train de les lire. Je suis donc en train de parcourir et de lire des pages et des pages et des pages de conditions générales de 30 applications de rencontres différentes. Cela prend du temps.

[00:09:28] Et puis il y a une - nous avons une assistante de recherche avec laquelle nous travaillons également - et elle utilise la méthode de la “visite guidée, qui a été développée par Stephanie Deguay, ainsi que par quelques autres collègues, pour faire une visite guidée des applications elles-mêmes.

[00:09:41] Donc, comme je l'ai déjà mentionné, vous téléchargez l'application, vous entrez vos informations, vous parcourez et vérifiez les différentes fonctionnalités disponibles, comment les utiliser, et vous supprimez l'application à la fin.

[00:09:51] Nehal El-Hadi : En ce moment, vous êtes en train de présenter les informations que nous avons recueillies, nous sommes encore en train de les parcourir. Qu'avez-vous appris jusqu'à présent?

[00:09:58] Christopher Dietzel : Oui, c'est en fait l'une des choses dont nous sommes très satisfaits avec le Congrès, parce que c'est une excellente occasion d'entrer en contact avec des collègues et de parler de la recherche, quelle que soit l'étape du processus dans laquelle vous vous trouvez.

[00:10:08] Nous sommes donc ravi.e.s de partager certaines des premières choses, certains des premiers résultats, je ne veux même pas les appeler ainsi parce que nous sommes encore en train de les analyser. Mais nous sommes très intéressé.e.s par le partage de ces tendances émergentes, de ces codes intéressants et autres que nous avons trouvés jusqu'à présent dans les données, et d'en discuter avec nos collègues du Congrès.

Nous présentons donc nos méthodes, nous expliquons comment ces applications ont été sélectionnées, et nous partageons ensuite certains de ces " résultats préliminaires " avec les gens.

[00:10:38] Nehal El-Hadi : J'ai une question qui revient sur ce que nous avons dit à propos du consentement et de la sécurité en ligne et hors ligne, et je me demande quels niveaux de responsabilité incombent à quel groupe de parties prenantes ou d'acteurs dans cette situation.

[00:10:52] Christopher Dietzel : Une fois de plus, vous posez une question fantastique et je pense qu'elle touche au cœur du problème des applications de rencontres de nos jours, et pas seulement des applications de rencontres, mais des entreprises technologiques en général : dans quelle mesure les entreprises elles-mêmes sont-elles responsables des expériences de sécurité des utilisateur.trice.s individuel.le.s et des violations de la sécurité?

[00:11:14] Dans quelle mesure les individus sont-ils responsables de leur propre expérience et de l'impact des autres sur leur expérience? Il n'y a pas vraiment de réponse facile à cette question. Je pense que mes collègues et moi-même serions d'avis que, puisqu'il s'agit d'entreprises qui fournissent un service, elles ont la responsabilité d'assurer la sécurité de leurs utilisateurs.

[00:11:32] Cependant, ce que nous avons constaté à maintes reprises, c'est que ce niveau de sécurité peut souvent être une approche unique qui ne tient pas compte de la façon dont différentes populations peuvent être liées à l'identité, au contexte et à une variété d'aspects différents de leur expérience, de la façon dont différentes populations peuvent être confrontées à des taux plus élevés de menaces pour leur sécurité par rapport à d'autres.

[00:11:58] Bien sûr, cela ne veut pas dire qu'il s'agit d'une approche générale pour toutes les applications. C'est d'ailleurs ce que nous constatons déjà, à savoir que certaines d'entre elles sont plus à l'écoute des risques accrus au sein de certaines populations que d'autres. Mais ce que nous voyons aussi, c'est qu'il faut garder à l'esprit qu'il s'agit d'entreprises, n'est-ce pas?

[00:12:15] Elles sont donc là dans le but premier de gagner de l'argent, d'offrir un service qui permette aux gens de rester impliqués, engagés dans leur produit. Et comme beaucoup de ces applications sont gratuites, cela signifie que même si les utilisateur.trice.s ne paient pas pour le produit lui-même - l'application - ils génèrent des données que les entreprises peuvent utiliser pour les monétiser.

[00:12:35] Et donc, je dis tout cela pour garder à l'esprit que même si nous aimerions voir les applications de rencontres et les entreprises technologiques en général faire plus pour assurer la sécurité de leurs utilisateur.trice.s, nous devons garder à l'esprit leur position à cet égard, et qu'elles vont offrir la sécurité dans une certaine mesure, mais qu'elles pourraient ne pas être des acteurs aussi ambivalents dans ce processus en raison des motivations financières qui se cachent derrière.

[00:13:01] Nehal El-Hadi : Je veux dire, je ne suis pas, je ne suis pas très familier.ère avec les applications de rencontres, mais il semble que plus on paye, plus on a de sécurité. 

[00:13:08] Christopher Dietzel : Et c'est un excellent point et un aspect fascinant que nous commençons déjà à voir. Nous le savions avant même de commencer cette recherche, mais oui, il y a beaucoup d'applications qui ont non seulement une version gratuite, mais aussi une version payante.

[00:13:21] Et il y a des fonctions de sécurité que vous ne pouvez débloquer que si vous payez pour l'application. Cela signifie qu'il y a des limites à la sécurité en ligne, mais aussi que pour accéder à ces fonctions, il faut bien sûr payer. Cela crée donc des niveaux de sécurité, si l'on peut dire, en termes de sécurité ou de sentiment de sécurité dans les expériences en ligne.

[00:13:51] Nehal El-Hadi : C'est une excellente réponse. Je suis également curieuse de savoir, comme vous l'avez mentionné, que même si vous ne payez pas pour l'application, vous générez des données, ce qui génère des revenus. Je me demande aussi comment les applications de rencontres se sont orientées vers la gamification, pour collecter plus de données afin de garder les gens plus impliqués, et elles le font aussi au détriment de la sécurité.

[00:14:11] Christopher Dietzel : Vous avez raison. En fait, Stephanie, moi-même et l'un de nos collègues, David Miles, nous nous sommes tous les trois intéressés à la façon dont, pendant la pandémie de COVID 19, les applications de rencontres se sont reconverties afin de maintenir l'engagement des gens, en particulier pendant les premières périodes de confinement, lorsque les gens ne pouvaient pas se rencontrer en personne.

[00:14:31] Vous savez, l'un des grands principes des applications de rencontres est que vous vous connectez en ligne et que vous finissez par vous rencontrer en personne, mais pendant la pandémie de COVID, ce principe a été complètement remis en question. Nous avons donc tous les trois mené quelques études pour comprendre comment les applications de rencontres se re-marketaient pendant cette période.

[00:14:48] Ce que nous avons vu, du moins en partie, c'est qu'elles ont en plus gamifié l'expérience utilisateur afin de maintenir l'engagement des gens. Par exemple, ils ont débloqué des fonctionnalités payantes et en ont rendu certaines gratuites afin d'inciter les gens à utiliser leurs produits.

[00:15:06] Par exemple, Tinder a mis en place sa fonction passeport, qui vous permet, “de voyager” dans le monde entier et de rencontrer des gens dans différents endroits. Elle a été rendue gratuite dès les premiers stades de la pandémie.

[00:15:17] Et Tinder - juste pour le noter - en soi, la façon dont il est construit en tant qu'application, est en fait configuré comme un jeu de cartes. Ainsi, lorsque vous glissez vers la gauche ou vers la droite, le but est d'imiter la façon dont vous jouez avec des cartes, ce qui montre à quel point l'application est gamifiée, rien que dans sa construction de base.

[00:15:35] Mais bien sûr, d'autres applications utilisent des fonctions différentes. Il y a, j'essaie de me souvenir du nom de ces fonctionnalités, mais il y a essentiellement des services de streaming sur certaines applications, euh, il y a des jetons, il y a des récompenses, bien sûr, comme nous le savons, lorsque nous utilisons n'importe quel type de plateforme de médias sociaux ou de plateformes numériques en général, il y a des notifications, qui sont censées, euh, attirer votre attention et libérer des endorphines.

[00:15:58] Donc tous ces types de choses encouragent peut-être consciemment ou inconsciemment les gens à utiliser davantage le produit. Et si je me souviens bien, il y a même, je crois, un procès aux États-Unis où des personnes ont poursuivi l'une des sociétés d'applications de rencontres parce qu'elles sont construites de manière à garder les gens sur le site plutôt qu'à faciliter les rencontres.

[00:16:24] J'ai oublié quelques détails, il faudrait peut-être vérifier si mes souvenirs sont exacts ou non, mais cela revient essentiellement à ce que vous disiez tout à l'heure, à savoir que ces applications sont conçues de manière à ce que les utilisateur.trice.s restent sur leur site.

[00:16:38] Et même si elles se présentent comme "On vous trouve votre ‘match’, on vous trouve l’amour de votre vie, on vous trouve une connexion intime", elles peuvent être conçues de manière à ce que les utilisateur.trice.s restent sur leur site. Ils peuvent être conçus de manière à ce que les gens restent sur le site.

[00:16:50] Nehal El-Hadi : Je viens de le trouver. 

[00:16:51] Christopher Dietzel : Oh, vous l'avez trouvé? C'est génial!

[00:16:53] Nehal El-Hadi : Six personnes aux États-Unis - Oui.

[00:16:53] Christopher Dietzel : Génial.

[00:16:54] Nehal El-Hadi : Je n'avais pas, je n'avais pas vu ça. [Six personnes aux États-Unis] ont intenté une action en justice contre Match Group, qui possède Tinder, Hinge et Match. C'est vraiment fascinant. Selon vous, quelle sera l'évolution des applications de rencontres? Parce que maintenant, il y a tout un tas de discussions dans l'air du temps sur le fait que les applications de rencontres sont finies et que les gens préfèrent se rencontrer dans la vraie vie, qu'elles sont dans le passé, qu'elles sont finies.

[00:17:14] Je pense que je vous pose cette question parce que le monde s'est ouvert et que nous sommes revenus à ce qu'était la vie avant la pandémie. Il n'y a donc pas nécessairement de besoin perçu pour ces produits.

[00:17:27] Sauf que je pense aussi que le paysage des rencontres - et non pas je pense, c’est ce que j’ai lu lors de mes recherches - que le paysage des rencontres a aussi été irrévocablement changé par les applications de rencontres. Ma question est donc la suivante : en quoi le fait d'être sur les applications a-t-il changé les idées? Vous savez quoi, revenons à votre recherche. Comment les applications de rencontres ont-elles changé les idées de sécurité et de consentement hors ligne?  

[00:17:49] Christopher Dietzel : Je pense, et je suis tout à fait d'accord avec vous, qu'une fois que nous avons, vous savez, une fois que nous avons ouvert la boîte de Pandore ou une fois que nous avons laissé les vers sortir de la boîte ou quoi que ce soit d'autre. Je pense que oui, il peut y avoir des gens qui utilisent des applications de rencontres et d'autres non, mais je pense que c'est devenu une option de plus pour les gens de se connecter les uns aux autres et qu'il sera difficile d'éliminer cette option de la société.

[00:18:18] Cela dit, et pour revenir à votre question, je pense que les gens sont de plus en plus conscients de la manière dont leurs données sont utilisées. Ils sont de plus en plus conscients des risques et des préjudices qui sont associés ou qui sont, qui peuvent être potentiellement, qui peuvent découler de leur utilisation des applications de rencontre et être conscients de ce que ces préjudices pourraient être en ligne et en personne.

[00:18:40] Je pense donc qu'à cet égard, même si les gens utilisent des applications de rencontres, le public est un peu plus sensibilisé aux préoccupations et aux risques associés à l'utilisation de ces technologies. Et comme le public est de plus en plus conscient de ces inconvénients potentiels, je pense que cela met la pression sur les entreprises elles-mêmes pour qu'elles répondent à ces inconvénients.

[00:19:02] Ainsi, pour reprendre l'exemple de COVID, les sociétés d'applications n'ont pas eu d'autre choix que de présenter des options aux gens, de leur fournir des informations sur la manière d'interagir en toute sécurité et de manière saine. Parce qu'elles n'avaient littéralement pas le choix.  

[00:19:18] C'est également ce que nous avons constaté en réponse aux préoccupations liées à la violence sexuelle en particulier. De nombreuses applications proposent désormais des informations sur le consentement sur leur site web. Nombre d'entre elles proposent des liens vers des ressources en cas d'actes de violence sexuelle. Bien sûr, cela ne veut pas dire que c'est le cas pour toutes les applications de rencontres, mais nous constatons que les connaissances du public et les expériences des gens en matière de préjudice ont forcé les applications à répondre à ces préoccupations.

[00:18:49] Nehal El-Hadi : Merci. Depuis combien de temps faites-vous ces recherches? Votre étude des applications de rencontres?

[00:19:54] Christopher Dietzel : Depuis 2017.

[00:19:58] Nehal El-Hadi : Ok. C'est donc bien avant l'arrivée de l'IA. 

[00:20:01] Christopher Dietzel : Oui, oui. 

[00:20:03] Nehal El-Hadi : Qu'avez-vous remarqué ou à quoi avez-vous pensé en termes d'IA et d'applications de rencontres? D'une manière générale, puis plus spécifiquement en ce qui concerne la sécurité et le consentement, et le travail que vous faites.

[00:20:16] Christopher Dietzel : Cette question sur l'IA est très intéressante et je voudrais commencer par préciser de quel type d'IA nous parlons et je le dis très intentionnellement parce que certains aspects de l'IA ont déjà été bien intégrés dans l'expérience des utilisateurs d'applications de rencontres.

[00:20:33] Par exemple, comme je l'ai dit précédemment à propos de la vérification de l'identité, il ne s'agit pas de modérateur.trice.s humain.e.s qui vérifient chaque photo d'un individu téléchargée sur une application de rencontres.

[00:20:44] On a des systèmes au sein de ces applications qui sont dirigées pas ces compagnies, on peut parler d'algorithmes, on peut parler d'IA, mais ce sont des systèmes technologiques automatisés qui vont évaluer la photo d'un individu, encore une fois, en utilisant l'exemple de la vérification d'identité, qui vont évaluer la photo d'un individu et en se basant sur leurs codes, ils vont soit marquer ou accepter la photo et ensuite ils ont un système qui dit : oui, l'identité de cette personne est vérifiée ou non, cette personne n'est pas vérifiée.

[00:21:18] En ce sens, l'IA a déjà été intégrée dans les coulisses de l'expérience des gens. Et ce n'est qu'un exemple. Il y a d'autres exemples, bien sûr, quand on pense au blocage, quand on pense au signalement, quand on pense au signalement de contenu problématique, et on voit même de plus en plus que l'IA a été intégrée dans les applications de rencontres, afin d'attraper ce que les gens disent ou attraper les photos que les gens envoient et demander à l'utilisateur « Est-ce que c'est quelque chose que vous aimeriez voir? ». « Est-ce que c'est du harcèlement? » « Est-ce que c'est quelque chose de problématique? » 

[00:21:48] Et si oui, voulez-vous nous le signaler? En ce sens, il y a déjà eu une intégration occasionnelle de l'IA dans les applications de rencontres. Cependant, aujourd'hui, alors que nous constatons que les utilisateur.trice.s sont incité.e.s à avoir une interaction plus directe avec l'IA, par exemple avec ChatGPT, l'important n'est pas ce qui se passe dans les coulisses, mais ce que l'utilisateur.trice peut faire individuellement pour inciter l'IA à générer une réponse.

[00:22:19] Ce que nous voyons, c'est que ce type d'IA générée par l'utilisateur.trice pourrait très bien s'introduire dans l'expérience des utilisateur.trice.s d'applications de rencontres. Par exemple, la Présidente et fondateur.trice de Bumble a récemment parlé, lors d'une conférence de presse, de l'intégration future d'une IA agissant comme concierge de rencontre.

[00:22:40] Ils pourraient parler à leur chat bot dans Bumble, par exemple, et lui dire ce qu'ils attendent de leur expérience sur l'application de rencontres, quels sont leurs espoirs, leurs rêves, leurs craintes. Ils pourraient donc divulguer toutes ces informations très personnelles à leur chat bot IA et les diffuser dans l'application de rencontres pour que les bots sortent et fassent les rencontres à leur place.

[00:23:05] Le bot interagirait avec d'autres utilisateur.trice.s et reviendrait vers l'utilisateur pour lui présenter des suggestions de personnes à rencontrer en personne pour un rendez-vous.

[00:23:17] Nehal El-Hadi : J'allais dire que ça me semble être une prémisse incroyable pour un film où tout ce qui se passe, c'est que tous ces chat bots d'IA finissent par sortir ensemble.

[00:23:25] Christopher Dietzel : Exactement. Et c'est même ce que la Présidente a dit, vous savez, imaginez un futur pas si lointain où l'IA sortira avec d'autres IA.

[00:23:34] Nehal El-Hadi : Et les gens devront à nouveau se rencontrer dans la vie réelle.

[00:23:36] Christopher Dietzel : Et qui sait? Cela a beaucoup d'implications sur la façon dont nous comprenons l'intimité, sur la façon dont nous externalisons notre propre expérience personnelle, sur ce que cela signifie d'être, de conduire notre propre expérience, ou de s'engager dans le désordre des rencontres et des relations, vous savez, cela suscite beaucoup de questions, beaucoup plus de questions que de réponses.

[00:23:54] Bumble n'est pas la seule application à envisager une fonction de ce type. Grindr - une application de rencontre très populaire auprès des hommes gays et queers, ainsi que des transgenres - le Pésident a parlé d'intégrer un chat bot d'IA dans cette application de rencontre.

[00:24:11] Il ne semble pas que ce soit pour bientôt, mais il est néanmoins intéressant de noter que non pas un, mais peut-être deux, et s'il s'agit de deux personnes qui viennent d'en parler publiquement, il y en a probablement encore plus qui expérimentent ou envisagent l'IA en arrière-plan.

[00:24:26] Mais tout cela pour dire que je pense que l'IA étant devenue très populaire dans le discours public de la société actuelle, je pense que nous allons la voir s'intégrer davantage dans les expériences des utilisateur.trice.s d'applications de rencontres et que la manière ou l'ampleur de cette intégration reste à voir.

[00:24:45] Nehal El-Hadi : Qu'espérez-vous que votre recherche fasse avancer les choses à l'intérieur et à l'extérieur de l'Académie?

[00:24:51] Christopher Dietzel : Oui, une chose en particulier est ce projet que je mène avec Stephanie DeGuay et d'autres sur les constructions de sécurité des applications de rencontres. L'un des objectifs de ce projet est de produire une carte de la sécurité numérique.

[00:25:06] Nous avons l'intention de créer un site web interactif en ligne où les gens peuvent aller chercher des informations sur les 30 applications de rencontres que nous sommes en train d'analyser.

[00:25:17] Nous voulons donc un site interactif attrayant où les gens peuvent cliquer sur une application et comparer une ou deux applications ou plus et comprendre quels sont les dispositifs de sécurité, les mécanismes, les politiques, les informations et les ressources disponibles par le biais de ces applications, afin qu'ils puissent avoir une connaissance éclairée de la façon dont ces applications construisent la sécurité et qu'ils puissent ensuite déterminer, en tant qu'individus, quelles applications pourraient être et se sentir plus sûres lorsqu'ils essaient d'entrer en contact avec des personnes en ligne et en personne.

[00:25:52] Nehal El-Hadi : Merci d'avoir écouté le Congrès en Conversation et à mon invité, Christopher Dietzel.

[00:26:01] Le balado Voir Grand tient à remercier ses amis et partenaires du Conseil de recherches en sciences humaines, dont le soutien a permis de réaliser ce balado, ainsi que CitedMedia pour son soutien à la production du balado et La Conversation Canada pour son partenariat.

[00:26:16] Faites-nous savoir ce que vous avez pensé de cet épisode et partagez vos commentaires avec nous sur les réseaux sociaux. Suivez-nous pour d'autres épisodes partout où vous écoutez votre balado et restez à l'affût des nouveaux épisodes à venir!

 

 

 

Suivez nous pour plus d'épisodes

Icon of Apple Podcast

Apple Podcast

Icon of Google Podcast

Google Podcast

amazon music logo

Amazon Music

Podcast addict logo

Podcast Addict

iHeartRadio logo

iHeartRadio