Saviez-vous que selon une étude récente, 96% des deepfakes en ligne sont de nature pornographique et ciblent principalement des célébrités féminines ? Avec la multiplication des outils de création d’IA, le risque de désinformation par le biais de deepfakes ne cesse de croître et pourrait représenter une menace sérieuse pour la démocratie.
Face à ce problème, un groupe de sénateurs américains vient de proposer un nouveau projet de loi baptisé « NO FAKES Act ». Son objectif : responsabiliser les plateformes en ligne qui hébergent des contenus deepfakes non autorisés.
Deepfakes : un vrai risque malgré le côté parodique
Même le patron de X (ex-Twitter), Elon Musk, s’est récemment fait prendre au piège en partageant une vidéo deepfake montrant la vice-présidente Kamala Harris tenir des propos dénigrants envers le président Biden. Si Musk a balayé les critiques en arguant qu’il s’agissait d’une simple parodie, cet exemple illustre bien le pouvoir trompeur des deepfakes, capables de convaincre une partie du public de leur authenticité.
La parodie est légale en Amérique.
– Elon Musk, au sujet d’un deepfake de Kamala Harris
Le NO FAKES Act pour responsabiliser les plateformes
C’est dans ce contexte que les sénateurs Coons, Blackburn, Klobuchar et Tillis ont dévoilé le « NO FAKES Act », un projet de loi qui vise à :
- Tenir les individus et entreprises responsables des dommages causés par la production, l’hébergement ou le partage de répliques numériques non autorisées de personnes.
- Obliger les services en ligne à retirer rapidement ces contenus suite à une notification des ayants droit.
- Préempter largement les lois des États sur le sujet pour créer une norme nationale applicable.
Le texte prévoit néanmoins des exceptions pour les œuvres protégées par le premier amendement comme les documentaires, les biographies ou les parodies. Il semble donc y avoir encore une certaine marge de manœuvre pour les créateurs de deepfakes.
Prouver qu’une vidéo est un faux, le vrai défi
Au-delà des exclusions prévues par la loi, un autre obstacle de taille se dresse : celui de prouver de façon irréfutable la nature synthétique d’une vidéo ou d’un enregistrement audio. Avec les progrès fulgurants de l’IA générative, il devient de plus en plus difficile de distinguer le vrai du faux. En cas de litige sur l’authenticité d’un contenu, une plateforme pourrait donc potentiellement refuser de le retirer tant que sa fausseté n’a pas été démontrée de manière certaine.
Malgré ces zones grises, ce projet de loi constitue une avancée importante dans la lutte contre la désinformation numérique. S’il est adopté, il devrait inciter les réseaux sociaux à plus de vigilance quant aux deepfakes hébergés et partagés sur leurs plateformes, sous peine de voir leur responsabilité engagée.
Alors que l’IA ne cesse de repousser les limites du réel et du virtuel, il est plus que jamais crucial d’adapter notre législation pour protéger les citoyens contre les dérives potentielles de ces technologies. Le « NO FAKES Act » est un premier pas dans cette direction, espérons qu’il sera suivi par d’autres initiatives pour réguler efficacement l’usage des IA génératives sans pour autant brider la créativité et l’innovation.
Abonnez-vous à notre newsletter pour recevoir les derniers articles directement dans votre boîte mail.
Commentaires