Publications Retour au bulletin

HYPERTRUCAGES : TOUT CE QUE VOUS ENTENDEZ OU VOYEZ N’EST PAS FORCÉMENT LA RÉALITÉ

Tara D’Aigle-Curley et Samantha Spector*
ROBIC
AVOCATS, AGENTS DE BREVETS ET DE MARQUES DE COMMERCE

Si vous avez récemment vu sur internet une image ou une vidéo qui semble réelle, mais qui vous paraît un peu étrange, il s’agit peut-être d’un hypertrucage (deepfake).

Les hypertrucages sont des images ou des enregistrements qui ont été modifiés et manipulés de manière convaincante pour faire croire que quelqu’un a fait ou dit quelque chose qui n’a pas été fait ou dit en réalité.[1] On les trouve souvent sous la forme d’échanges de visages, d’hypertrucages basés sur un réseau contradictoire général, de synchronisation labiale et de clonage de voix.[2]

Les hypertrucages existent depuis les débuts de l’internet, mais leur popularité et les risques qu’ils présentent ont augmenté de manière exponentielle en raison de leur accessibilité accrue au grand public. Selon le Forum économique mondial, les hypertrucages en ligne ont augmenté de 90 % entre 2022 et 2023.[3] Les avancées technologiques en matière d’intelligence artificielle ont également permis aux hypertrucages d’avoir une apparence, une sonorité et un comportement plus réalistes. Un hypertrucage de 2024 est beaucoup plus réaliste qu’un hypertrucage de 2018.

L’accessibilité, la popularité et la précision accrues de la technologie hypertrucage peuvent avoir un impact considérable sur votre entreprise par le biais de la fraude. Nous donnerons des exemples puis nous discuterons de l’absence de réglementation sur la technologie hypertrucage au Canada, au Québec et aux États-Unis et de la manière dont vous pouvez vous protéger, vous et votre entreprise, pour éviter d’être victime d’hypertrucages.

Fraude, atteinte à la réputation et méfiance des entreprises

Les hypertrucages peuvent être utilisés pour perpétrer des fraudes au sein d’une entreprise. Récemment, un employé d’une entreprise basée à Hong Kong a reçu un appel, qui semblait provenir d’un cadre de l’entreprise, lui demandant de transférer de l’argent sur un compte bancaire donné, l’employé a suivi les instructions. Malheureusement, cet appel était un hypertrucage, réalisé à l’aide de vidéos et de sons accessibles au public afin d’imiter un cadre de haut niveau de l’entreprise. À la suite de cet incident, 26 millions de dollars ont été instantanément dérobés à l’entreprise.[4] Des scénarios similaires ont été signalés anonymement au Québec. Ces fausses voix peuvent être des interlocuteurs convaincants et mener de longues conversations avec des victimes qui ne se doutent de rien. [5]

Les entreprises peuvent être affectées par les hypertrucages même lors d’entretiens d’embauche. Le FBI a signalé que les personnes interrogées peuvent en fait ne pas être les vraies personnes, mais plutôt des vidéos/images générées par l’IA.[6]

Les hypertrucages peuvent gravement nuire à la réputation d’une entreprise si des personnes mal intentionnées diffusent des hypertrucages frauduleux montrant des cadres en train de faire ou de dire des choses embarrassantes ou incorrectes. Le cours des actions et la crédibilité d’une entreprise peuvent s’effondrer en une seconde avec un hypertrucage convaincant et stratégiquement diffusé.

Du point de vue de la sécurité, les hypertrucages peuvent avoir un impact sur l’ensemble de l’infrastructure d’une entreprise. Des informations classifiées peuvent être compromises par des membres de l’entreprise via l’utilisation d’hypertrucages qui tentent d’être intraçables.[7]

Le monde juridique tente de rattraper son retard

Malgré l’ancienneté des hypertrucages, les gouvernements ont mis du temps à rattraper l’évolution de la technologie de l’intelligence artificielle.[8]

Au Canada, il n’existe pas de législation au niveau fédéral réglementant la technologie hypertrucage. Le gouvernement est censé introduire un jour une législation pour réglementer les systèmes d’IA et mettre à jour la loi actuelle, mais cela prendra au moins plusieurs années.[9]

Plusieurs provinces, dont la Colombie-Britannique, l’Île-du-Prince-Édouard et le Nouveau-Brunswick, ont adopté une législation qui permet aux personnes de saisir les tribunaux pour faire retirer des photos explicites d’elles, réelles ou modifiées, qui se trouvent sur l’internet.[10] 

Au Québec, un homme a récemment été condamné à une peine de prison pour avoir créé des images inappropriées d’enfants à l’aide de la technologie hypertrucage.[11] Mais la jurisprudence sur les hypertrucages au Canada est extrêmement rare. En vertu de l’article 36 du Code civil du Québec, l’utilisation du nom, de l’image, de la ressemblance ou de la voix d’une personne à des fins autres que l’information légitime du public peut constituer une atteinte à la vie privée.[12] La question d’hypertrucages n’a pas encore été examinée par les tribunaux en vertu de cet article. Il reste à déterminer si leur création constitue une atteinte à la vie privée d’une personne ou s’il existe une meilleure cause d’action pour résoudre ces questions.

Selon la Loi québécoise sur la protection des renseignements personnels dans le secteur privé, le consentement clair, libre et éclairé d’une personne doit être obtenu lorsque des renseignements personnels tels que son image sont utilisés (art. 6).[13] De plus, l’image d’une personne ne peut être utilisée qu’aux fins pour lesquelles elle a été recueillie (art. 12).[14] Les hypertrucages peuvent être de fausses appropriations non consensuelles de l’image d’une personne, et cette loi peut fournir des ressources; mais pour l’instant, elle n’a pas encore été testée par la jurisprudence.

En fin de compte, il n’existe pas d’autre législation spécifique relative aux hypertrucages.[15]

Les États-Unis travaillent sur une législation relative à l’IA et aux hypertrucages. Récemment, le Congrès a introduit la loi « No AI FRAUD Act », qui vise à définir légalement les « droits de ressemblance et de voix », ce qui pourrait interdire l’utilisation d’hypertrucages créés par l’intelligence artificielle pour représenter une personne de manière non consensuelle. Le Sénat a proposé une loi similaire, la loi « NO FAKES Act », qui vise à protéger les musiciens contre les versions non autorisées de leur visage et de leur voix, créées par l’intelligence artificielle.[16] Récemment, le gouverneur de l’État de New York, Kathy Hochul, a signé un projet de loi qui interdit la diffusion d’hypertrucages créés par l’IA et représentant des contenus sexuels non consensuels.[17]

Ne vous laissez pas tromper!

Les personnes malintentionnées n’attendront pas que des réglementations gouvernementales soient mises en place. Elles continueront à tirer parti de technologies sophistiquées pour parvenir à leurs fins. Les éditeurs de logiciels ont développé des programmes pour aider les particuliers et les entreprises à identifier les hypertrucages.[18] Ces différents programmes sont adaptés aux besoins des différentes industries. Par exemple, certains programmes s’appuient davantage sur l’analyse de composants spécifiques d’un hypertrucage (mouvements de la bouche, modèles de discours, etc.) tandis que d’autres se spécialisent dans la détection d’hypertrucages en masse sur différentes plates-formes.[19] Outre ces outils, il est également essentiel de savoir comment déchiffrer les hypertrucages à partir d’images et de vidéos réelles.

Parmi les ressources utiles pour apprendre à détecter les hypertrucages, citons la ressource Detect Fakes du Massachusetts Institute of Technology (MIT). Cette ressource présente plusieurs conseils pour aider les gens à déterminer si une image/vidéo est un hypertrucage :[20]

  • Prêtez attention au visage de l’image/vidéo :
    • Est-elle trop ridée ou trop lisse ?
    • Le visage correspond-il au reste de la photo ?
  • Prêtez attention aux yeux de l’image/vidéo :
    • Les ombres apparaissent-elles à l’endroit prévu ?
    • Si le sujet porte des lunettes – Sont-elles brillantes ? Ne sont-elles pas assez brillantes ? Bougent-elles avec la personne comme le feraient des lunettes normales ?
  • Prêtez attention aux cheveux de l’image/vidéo :
    • La pilosité faciale semble-t-elle réelle ?
  • Prêtez attention aux grains de beauté ou autres irrégularités de la peau sur l’image/vidéo ;
  • Veillez à ce que l’image/vidéo clignote normalement, trop ou pas assez ;
  • Prêtez attention aux mouvements des lèvres de l’image/vidéo et vérifiez s’ils semblent naturels ou non.[21]

Il est important de ne pas donner de renseignements personnels, d’argent, même de petites sommes, ou de biens à une personne dont vous n’êtes pas sûr de l’identité. Les fraudeurs d’hypertrucages peuvent insister sur le fait qu’il est urgent d’agir, mais en fin de compte, c’est votre sécurité qui est la priorité absolue.

Alors que les gouvernements tentent de réglementer la technologie et la diffusion des hypertrucages, il est essentiel pour les chefs d’entreprise de prendre de l’avance, de se fier à eux-mêmes et de savoir comment éviter de se faire piéger. Il est également important d’enseigner les ficelles du métier à leurs employés. Détecter les hypertrucages de ce qui est réel peut sauver votre entreprise de conséquences potentiellement désastreuses.


*Nous tenons à remercier notre stagiaire, Samantha Spector, pour sa contribution à la rédaction de cet article.

[1]Merriam Webster.
[2]https://www.canada.ca/fr/service-renseignement-securite/organisation/publications/evolution-de-la-desinformation-un-avenir-hypertruque/repercussions-des-hypertrucages-sur-la-securite-nationale.html
[3]https://incyber.org/article/la-blockchain-face-aux-deepfakes-vers-une-ere-de-veracite-numerique/
[4]https://incyber.org/article/hong-kong-26-millions-de-dollars-derobes-grace-a-un-deepfake/
[5]https://www.lapresse.ca/affaires/techno/2023-12-13/fraudes-financieres/le-deepfake-debarque-au-quebec.php
[6]https://www.vice.com/en/article/akedaa/deepfakes-might-be-used-in-remote-job-interviews-fbi-warns (en anglais seulement)
[7]https://www.canada.ca/fr/service-renseignement-securite/organisation/publications/evolution-de-la-desinformation-un-avenir-hypertruque/repercussions-des-hypertrucages-sur-la-securite-nationale.html
[8]https://www.vice.com/en/article/7kxkja/internal-emails-show-fbi-freaking-out-about-deepfakes (en anglais seulement)
[9]https://www.cbc.ca/news/politics/ai-pioneer-canada-needs-law-to-regulate-ai-now-1.7105463 (en anglais seulement[
10]https://www.cbc.ca/news/canada/british-columbia/deepfake-pornography-to-the-masses-1.7104326 (en anglais seulement)
[11]https://www.cbc.ca/news/canada/british-columbia/deepfake-pornography-to-the-masses-1.7104326 (en anglais seulement)
[12]Code civil du Québec, chapitre CCQ-1991 article 36.
[13]Loi sur la protection des renseignements personnels dans le secteur privé, chapitre P-39.1, article 6.
[14]Loi sur la protection des renseignements personnels dans le secteur privé, chapitre P-39.1, article 12.
[15]https://www.vice.com/en/article/5d9az5/congress-is-trying-to-stop-ai-nudes-and-deepfake-scams-because-celebrities-are-mad (en anglais seulement)
[16]https://iapp.org/news/a/new-york-law-bans-explicit-deepfake-distribution/ (en anglais seulement)
[17]https://iapp.org/news/a/new-york-law-bans-explicit-deepfake-distribution/ (en anglais seulement)
[18]https://www.bbc.com/news/technology-53984114 ; https://blogs.microsoft.com/on-the-issues/2020/09/01/disinformation-deepfakes-newsguard-video-authenticator/ (en anglais seulement)
[19]https://www.techopedia.com/best-ai-deepfake-detectors (en anglais seulement)
[20]https://www.vice.com/en/article/akedaa/deepfakes-might-be-used-in-remote-job-interviews-fbi-warns (en anglais seulement)
[21]https://www.media.mit.edu/projects/detect-fakes/overview/ (en anglais seulement)