Addison Rae visée par ce terrible «deepfake» AI
Rosalie Simard
L’intelligence artificielle a du bon, mais aussi du mauvais, voire dangereux, quand on constate les fausses vidéos qui circulent et qui nuisent. Addison Rae est la cible de ces pratiques diaboliques.
• À lire aussi : En première page de magazine, Addison Rae se dénude aventureusement et remet le Pepsi d’actualité
• À lire aussi : Addison Rae : son père arrêté pour un comportement indécent
L’identité d’Addison a été utilisée sans son consentement pour une vidéo de deepfake de type sexuel. Les deepfakes sont des falsifications audios, vidéos ou d’images générées par l’intelligence artificielle. Elles sont très réalistes, mais entièrement synthétiques, et montrent des personnes en train de dire ou de faire des choses qu’elles n’ont jamais faites.
Addison est donc impliquée malgré elle dans une porno vue des dizaines de milliers de fois, alors qu’elle n’a absolument rien demandé de cette situation. La personne derrière cette fabrication n’a pas seulement utilisé Addison sans son consentement, mais en plus l’individu profite de tout cela monétairement.
L’exemple législatif du Danemark
Le Danemark introduit depuis le début de l’année des mesures afin de lutter contre les deepfakes générés par l’intelligence artificielle. Pour ce faire, le pays prévoit modifier sa loi sur le droit d’auteur afin d’accorder aux individus la propriété de leur propre visage, de leur voix et de leur corps.
Cette loi permettra aux citoyens d’exiger la suppression d’imitations numériques réalistes réalisées sans leur consentement. Les règles, qui visent à protéger les individus contre l’utilisation abusive de leur identité, prévoient des amendes strictes — potentiellement très élevées — pour les plateformes qui ne s’y conformeraient pas, tout en prévoyant une exception pour la satire.
Pour le moment, ce type de législation n’est pas appliqué aux États-Unis ou au Canada, mais le fléau devrait certainement avoir des barèmes comme la loi danoise.