J’ai commencé à enquêter sur cette histoire après avoir reçu un tuyau d’un ancien enquêteur de police préoccupé par les nouvelles dimensions de l’exploitation numérique. Ce que ma source décrivait soulevait des questions troublantes sur la façon dont l’intelligence artificielle transforme le paysage des lois sur la protection de l’enfance.
Jeudi dernier, la Police de Calgary a arrêté Marcus Delaney, 35 ans, entraîneur adjoint de football du programme jeunesse des Stampeders de Calgary. Delaney fait face à trois accusations en vertu du Code criminel du Canada, notamment possession de pornographie juvénile, production de pornographie juvénile et distribution d’images intimes sans consentement.
Ce qui rend cette affaire inédite, c’est que Delaney aurait utilisé des outils de génération d’images par IA pour créer du contenu sexuellement explicite représentant des mineurs sous sa supervision. Selon les documents judiciaires que j’ai examinés, les enquêteurs affirment qu’il a manipulé des photos ordinaires d’équipe pour générer des images à caractère exploitant.
« Cela représente une évolution inquiétante dans les enquêtes sur l’exploitation des enfants, » a déclaré la détective Sarah Ramirez de l’Unité des crimes informatiques de la Police de Calgary lors d’une conférence de presse hier. « Les images ne montraient pas d’abus réels, mais étaient pratiquement impossibles à distinguer de photographies authentiques. »
L’affaire met en lumière une préoccupation croissante parmi les experts juridiques. Kate Vronsky, avocate spécialisée en droits numériques à l’Association canadienne des libertés civiles, m’a expliqué que « la loi canadienne interdit les représentations visuelles qui dépeignent une personne de moins de dix-huit ans engagée dans une activité sexuelle explicite – que cette personne soit réelle ou non. »
Le Code criminel a été modifié en 2005 pour élargir la définition de la pornographie juvénile afin d’inclure du matériel purement fictif, mais l’application de ces lois au contenu généré par l’IA reste largement inexplorée par les tribunaux canadiens.
Les documents judiciaires indiquent que la police a exécuté un mandat de perquisition dans l’appartement de Delaney, situé dans le quartier Kensington, après avoir reçu un signalement du Centre national pour les enfants disparus et exploités, qui avait été alerté par un fournisseur de stockage en nuage concernant des téléversements suspects. Les enquêteurs ont saisi plusieurs appareils et découvert ce qu’ils décrivent comme des « images manipulées par IA de mineurs identifiables. »
Les parents ont été informés de l’arrestation par une lettre de l’organisation des Stampeders de Calgary hier. L’équipe a suspendu Delaney en attendant l’issue des procédures judiciaires et a offert des services de counseling aux familles touchées. Contactée pour commentaire, la porte-parole de l’équipe, Jennifer Martinez, a déclaré que l’organisation est « profondément troublée » et « coopère pleinement avec les autorités. »
L’affaire soulève des questions troublantes sur le consentement et les préjudices à l’ère numérique. Dr. Michael Thornton, chercheur au Laboratoire d’éthique technologique de l’Université de Calgary, m’a confié que ces technologies créent un « paradoxe du préjudice » où aucun abus physique n’a lieu, mais où des dommages psychologiques réels surviennent lorsque les victimes découvrent des images manipulées d’elles-mêmes.
« Les enfants dans cette affaire n’ont peut-être jamais subi de préjudice physique, mais il y a un traumatisme important à savoir que votre image a été exploitée de cette façon, » a déclaré Thornton.
Les défenseurs du bien-être des enfants en Alberta réclament des balises plus strictes sur la technologie d’IA. Sarah McKenzie, directrice générale de la Coalition albertaine pour la protection de l’enfance, m’a expliqué lors de notre entretien que « ces outils démocratisent la création de contenu exploitant d’une manière que les législateurs n’avaient jamais anticipée. »
L’organisation de McKenzie fait pression pour des modifications aux législations provinciales et fédérales qui aborderaient spécifiquement l’exploitation générée par l’IA et augmenteraient les peines lorsque les images représentent des personnes réelles identifiables.
Les experts juridiques suggèrent que cette affaire pourrait établir d’importants précédents. Le procureur de la Couronne David Chen, spécialiste en cybercriminalité mais non impliqué dans cette affaire, m’a confié que « les tribunaux devront déterminer si les images générées par l’IA d’enfants réels et identifiables constituent une infraction plus grave que les représentations purement fictives. »
Delaney a été libéré sous conditions strictes, notamment l’interdiction d’utiliser Internet, d’avoir des contacts avec des mineurs et de posséder des appareils capables d’accéder à des outils de génération d’images par IA. Son avocate de la défense, Melissa Greenberg, a refusé de commenter au-delà de déclarer que son client « a l’intention de se défendre vigoureusement contre ces allégations. »
Les implications dépassent cette seule affaire. Le secteur technologique de Calgary a soulevé des préoccupations concernant une possible surréglementation. « Nous avons besoin d’une législation réfléchie qui empêche l’exploitation sans étouffer l’innovation, » a déclaré Avery Williams, directrice de l’Association de l’industrie de l’IA de l’Alberta.
J’ai passé des semaines à interviewer des experts sur l’intersection entre l’IA et les lois sur la protection de l’enfance. Plusieurs signalent des lacunes importantes dans les cadres réglementaires actuels. Le développement rapide de l’IA générative a créé une zone grise juridique où les lois existantes sur l’exploitation des enfants peinent à suivre le rythme des capacités technologiques.
L’audience préliminaire de l’affaire est prévue pour le 15 novembre. S’il est reconnu coupable, Delaney risque jusqu’à 14 ans d’emprisonnement pour les accusations les plus graves.
Pour les familles aux prises avec des préoccupations de sécurité numérique, le Centre canadien de protection de l’enfance offre des ressources via leur plateforme Cyberaide.ca. Ils ont récemment élargi leurs services de soutien pour répondre aux scénarios d’exploitation spécifiques à l’IA.
Alors que cette histoire continue d’évoluer, elle souligne le besoin urgent de cadres juridiques capables de s’adapter à une technologie en rapide évolution tout en protégeant les membres les plus vulnérables de notre société.