Deepfake : comprendre avant de paniquer

Imaginez recevoir une vidéo d’un dirigeant que vous respectez. Il parle avec assurance. Son visage est familier. Sa voix aussi. Il annonce une décision majeure. Tout semble crédible.

Puis vous apprenez que cette personne n’a jamais prononcé ces mots. C’est cela, un deepfake. Pas une rumeur. Pas une simple manipulation maladroite.

Une imitation générée par intelligence artificielle, capable de reproduire un visage, une voix ou un geste avec un réalisme parfois déconcertant.

Nous avons longtemps cru que voir signifiait savoir. L’image tenait lieu de preuve. La vidéo tranchait un débat. La voix incarnait une présence. Les deepfakes ne détruisent pas le réel. Ils compliquent la confiance que nous lui accordions spontanément.

Le principe technique, bien qu’impressionnant, repose sur une idée accessible. L’intelligence artificielle analyse des milliers d’images ou d’enregistrements d’une personne réelle. Elle apprend les structures d’un visage, la manière dont les lèvres s’articulent, la cadence d’une voix. À partir de ces motifs, elle génère une version synthétique cohérente. Les premiers systèmes utilisaient des réseaux antagonistes génératifs, appelés GAN, qui amélioraient progressivement le réalisme des images produites. Aujourd’hui, d’autres modèles ont encore affiné cette capacité.

La différence avec un simple montage est essentielle. Un montage modifie un contenu existant. Un deepfake reconstruit une identité. Il ne se contente pas d’altérer une image. Il simule une présence.

Si cette technologie semble soudainement omniprésente, c’est moins parce qu’elle est nouvelle que parce qu’elle est devenue accessible. La puissance de calcul a augmenté, les données personnelles abondent en ligne, et les outils se sont simplifiés. Ce qui exigeait autrefois une expertise avancée peut désormais être réalisé avec des plateformes relativement intuitives.

Il serait pourtant simpliste de réduire les deepfakes à la manipulation. Le cinéma les utilise pour recréer des scènes impossibles ou restaurer des archives. La synthèse vocale permet à certaines personnes ayant perdu la parole de retrouver une voix proche de la leur. La traduction automatisée ouvre des possibilités inédites en communication internationale. Comme toute technologie, le deepfake est ambivalent. Il amplifie autant qu’il perturbe.

Ce qui change réellement, c’est notre rapport à la preuve. Le faux n’a jamais été absent de l’histoire humaine. Ce qui est inédit, c’est sa qualité et sa facilité de production. Lorsque l’image peut être générée avec précision, elle ne peut plus être acceptée sans question. Lorsque la voix peut être imitée, la confiance devient une construction, et non un réflexe.

Pour les organisations, ce déplacement est discret mais profond. Il oblige à repenser les mécanismes de validation, à anticiper la possibilité d’un contenu synthétique crédible, à intégrer cette réalité dans les stratégies de communication et de gestion de crise. La crédibilité ne peut plus reposer uniquement sur l’apparence.

Les deepfakes ne signalent pas la fin du réel. Ils signalent la fin de son évidence.

Et si l’identité peut être techniquement reproduite, que devient le consentement ? Qui contrôle l’usage de son propre visage, de sa propre voix ? Et que signifie encore « être présent » lorsque l’on peut être imité sans le savoir ?

C’est à ces questions que nous nous attarderons dans le prochain article. Car comprendre la technologie n’est qu’un début. Il reste à examiner ce qu’elle transforme en profondeur.

Précédent
Précédent

Quand l’identité devient reproductible

Suivant
Suivant

Ce que les organisations sous-estiment lorsqu’elles adoptent l’intelligence artificielle