Dans le monde numérique d’aujourd’hui, les progrès fulgurants de l’intelligence artificielle (IA) génèrent autant d’émerveillement que d’inquiétudes. Parmi les innovations les plus discutées, les deepfakes, ces vidéos et images manipulées ou entièrement créées par l’IA, soulèvent de nombreuses questions éthiques et sécuritaires. Dans quelle mesure les Français sont-ils capables d’identifier ces contenus trompeurs ? Une récente étude menée par l’Ifop pour Alucare.fr, un site spécialisé dans les nouvelles technologies, offre un éclairage intéressant sur la perception des deepfakes par la population française.

Un tiers des Français se sent capable de détecter les deepfakes

Selon les résultats de l’enquête, un tiers des Français (33 %) estiment pouvoir identifier une image ou une vidéo générée par l’IA. Cependant, seulement 6 % se disent réellement confiants dans cette capacité. Cette incertitude est particulièrement marquée chez les personnes de plus de 35 ans, avec seulement 28 % d’entre elles se sentant capables de repérer un deepfake, contre 55 % chez les jeunes de 18 à 24 ans.

Pour mettre à l’épreuve cette perception, l’Ifop a soumis les participants à un test impliquant cinq images entièrement générées par l’IA, sans leur en informer. Les résultats sont édifiants : 94 % des personnes interrogées ont été induites en erreur par au moins une de ces images, jugée comme réelle. Un portrait réaliste d’un médecin a trompé 75 % des participants, tandis qu’une photo « ancienne » d’un homme à cheval a été considérée comme authentique par 64 % d’entre eux.

Ces chiffres soulignent la difficulté grandissante à distinguer le vrai du faux dans un environnement où l’IA générative progresse à grands pas. Comme le souligne l’étude, certains détails peuvent encore trahir l’origine artificielle d’une vidéo ou d’une image, tels que des mouvements de lèvres peu naturels (selon 59 % des Français), un clignement des yeux insuffisant (33 %) ou des textures de peau peu convaincantes (29 %). Néanmoins, ces indices deviennent de plus en plus subtils et difficiles à détecter pour l’œil non averti.

Une compréhension inégale des deepfakes selon l’âge et le genre

Parallèlement à la capacité de détection, l’enquête se penche sur la compréhension du concept même de deepfake par les Français. Si 69 % des personnes interrogées affirment être au courant de l’existence de ces contenus manipulés par l’IA, seulement 30 % en saisissent pleinement la signification.

Là encore, des disparités notables apparaissent selon l’âge et le genre. Les jeunes de 18 à 24 ans sont les plus informés, avec 83 % d’entre eux conscients des deepfakes et 50 % en ayant une compréhension claire. À l’inverse, chez les plus de 65 ans, ces chiffres chutent respectivement à 66 % et 15 %. Les hommes estiment également avoir une meilleure compréhension des deepfakes (37 %) que les femmes (24 %).

Ces écarts soulignent la nécessité de renforcer les efforts de sensibilisation et d’éducation autour de cette technologie en pleine évolution, en particulier auprès des publics les plus vulnérables.

Des inquiétudes grandissantes face aux risques des deepfakes

Au-delà de la capacité à détecter les deepfakes, l’étude révèle également les craintes grandissantes des Français face aux risques potentiels de cette technologie. Plus de la moitié des répondants (57 %) expriment leur peur de devenir eux-mêmes victimes de tels montages, une préoccupation particulièrement marquée chez les jeunes de moins de 25 ans (13 %).

Dans le domaine électoral, 62 % des personnes interrogées s’inquiètent de l’impact que pourraient avoir les deepfakes sur la prochaine élection présidentielle de 2027. Cette appréhension est plus prononcée chez les générations plus âgées, les jeunes semblant moins préoccupés par cette perspective.

Ces résultats mettent en lumière les défis croissants posés par les deepfakes dans notre société numérique. Bien que fascinantes d’un point de vue technologique, ces manipulations soulèvent des enjeux majeurs en termes de confiance, de désinformation et de protection de la vie privée.

Une réglementation et une éducation nécessaires

Face à ces enjeux, les réponses semblent se dessiner autour de deux axes complémentaires : la réglementation et l’éducation. D’une part, 90 % des Français souhaitent une mention explicite de l’origine artificielle d’un contenu, soulignant la demande de transparence et de traçabilité.

D’autre part, l’enquête met en évidence la nécessité de renforcer la sensibilisation et la formation autour des deepfakes, en particulier auprès des publics les plus vulnérables. Seule une meilleure compréhension de cette technologie et de ses risques permettra aux citoyens de développer un esprit critique et de prendre des décisions éclairées face aux contenus auxquels ils sont exposés.

Dans cette ère de l’IA générative, où les frontières entre le réel et le virtuel s’estompent, il est essentiel de rester vigilant et de s’armer des connaissances nécessaires pour naviguer en toute sécurité dans cet environnement en constante évolution.