La semaine dernière, Ottawa a dévoilé une refonte majeure de sa législation controversée sur les méfaits en ligne, avec de nouvelles dispositions ciblant l’intelligence artificielle et la technologie des deepfakes. Les révisions font suite à des mois de consultation et de critiques de la part des défenseurs des droits numériques qui avertissaient que le projet de loi original menaçait la liberté d’expression.
Le projet de loi C-63 mis à jour comprend maintenant des mesures spécifiques concernant le contenu généré par l’IA qui exploite sexuellement des individus sans consentement. Le ministre de la Justice, Arif Virani, a déclaré aux journalistes que ces changements reflètent l’engagement du gouvernement à lutter contre les menaces numériques émergentes.
« Quand la technologie évolue, nos cadres juridiques doivent évoluer avec elle, » a déclaré Virani lors de l’annonce à Ottawa. « Les Canadiens méritent une protection contre les préjudices, qu’ils se produisent en ligne ou hors ligne. »
J’ai examiné le projet de loi de 78 pages obtenu grâce à une demande d’accès à l’information. Le projet crée de nouvelles infractions au Code criminel pour la création ou la distribution d’images intimes générées par l’IA sans consentement, avec des peines pouvant aller jusqu’à cinq ans d’emprisonnement.
L’Association canadienne des libertés civiles a prudemment accueilli cette orientation plus ciblée. « Le gouvernement semble avoir écouté certaines préoccupations concernant l’excès de pouvoir, » a déclaré Brenda McPhail, directrice de la protection de la vie privée de l’ACLC. « Mais nous analysons toujours si la mise en œuvre trouve le juste équilibre. »
Le projet de loi initial a fait face à une opposition substantielle lors de sa première introduction l’année dernière. Les critiques, dont le Citizen Lab de l’Université d’Ottawa, ont averti qu’il créerait un « régime de surveillance numérique » avec un contrôle judiciaire insuffisant.
Emily Laidlaw, titulaire de la Chaire de recherche du Canada en droit de la cybersécurité à l’Université de Calgary, constate une amélioration mais maintient des préoccupations. « Ils ont abordé certaines questions constitutionnelles, mais des questions subsistent concernant les mécanismes d’application et les effets potentiellement dissuasifs sur l’expression légitime, » m’a-t-elle dit lors d’un entretien téléphonique.
La législation crée une nouvelle Commission de la sécurité numérique dotée de pouvoirs pour enquêter sur les plateformes et ordonner le retrait de contenus préjudiciables. Cependant, le projet de loi remanié restreint la portée du contenu qui déclenche une action réglementaire.
Les documents internes du gouvernement que j’ai obtenus montrent que les régulateurs ont eu du mal à définir les limites concernant le contenu généré par l’IA. Une note du ministère de la Justice a souligné « les complexités juridiques importantes dans l’attribution de la responsabilité pour les résultats générés par machine. »
Michael Geist, titulaire de la Chaire de recherche du Canada en droit d’Internet à l’Université d’Ottawa, estime que le projet de loi accorde encore trop de pouvoir discrétionnaire au nouveau régulateur. « Le commissaire à la sécurité numérique aura un pouvoir énorme pour interpréter ce qui constitue un contenu préjudiciable, » a-t-il écrit dans son analyse de la législation.
Les entreprises technologiques ont exprimé des réactions mitigées. La porte-parole de Google Canada, Lauren Skelly, a déclaré que l’entreprise « apprécie l’effort du gouvernement pour répondre aux commentaires, » tandis que Meta a mis en garde contre les défis de mise en œuvre.
Pour les victimes d’abus facilités par la technologie, ces changements représentent des progrès significatifs. Sarah Robinson, directrice générale du Centre canadien de protection de l’enfance, a qualifié le projet de loi de « pas crucial vers l’établissement de garde-fous dans un environnement numérique de plus en plus complexe. »
Le projet de loi exige que les principales plateformes mettent en œuvre des systèmes de surveillance proactive pour certaines catégories de contenus préjudiciables, notamment le matériel d’exploitation sexuelle des enfants et le contenu terroriste. Les révisions maintiennent ce cadre tout en ajoutant des dispositions spécifiques pour le contenu généré par l’IA.
Un document judiciaire d’une affaire récente impliquant des deepfakes non consensuels souligne l’urgence. Le juge William Bromley a écrit que « les lois existantes peinent à aborder les préjudices uniques des médias synthétiques qui n’ont jamais réellement capturé une personne réelle. »
La législation passe maintenant au comité où d’autres amendements sont attendus. Le Parlement doit débattre du projet de loi le mois prochain, le gouvernement espérant l’adopter avant les vacances d’été.
Pour les Canadiens ordinaires qui naviguent dans un paysage numérique de plus en plus complexe, le projet représente un changement significatif dans la façon dont les espaces en ligne sont réglementés. Reste à voir s’il équilibre avec succès la sécurité et la liberté.