Deepfakes et crises : 10 aspects à considérer

L’avènement des TIC a révolutionné la vie publique des personnes et des organisations, notamment par la manière dont les crises peuvent les impacter. Parmi les techniques redoutables et souvent malveillantes, les deepfakes constituent un grand casse-tête dont les effets peuvent durer longtemps…

Les deepfakes sont rarement à l’origine d’une crise, mais ils interviennent une fois qu’elle survient pour manipuler l’opinion publique et rendre la communication plus difficile et plus fragile.      

Formation community management

Du simple Bad Buzz à la crise majeure, en passant par les polémiques, voici une liste de points à considérer pour cerner le sujet :

1. Une viralité assurée

    Malheureusement, les personnes malveillantes qui exploitent le deepfake surfent sur ce qu’il y a de plus malsain et de plus inavouable dans les sociétés modernes. Ils vont créer des contenus adaptés aux publics visés, de manière à provoquer un Bad Buzz.

    Si on crée un deepfake ce n’est généralement pas pour faire les choses à moitié. Les contenus agissent par contraste : si une personne combat le racisme, on lui fait tenir des propos abjects envers une communauté particulière. Si une autre prône et incarne la vertu, on la montre sous un visage différent. Si une troisième plaide pour l’intégrité, on la montre en train de la piétiner… et ce genre de contenu devient rapidement viral.          

    2. Principe d’asymétrie des baratins

    Le principe renvoie à la fameuse loi de Brandolini qui postule que les efforts nécessaires pour créer et diffuser de fausses informations ou des théories absurdes, sont nettement inférieurs à l’énergie qu’il faudra dépenser pour les réfuter. Certains contenus peuvent être créés en quelques minutes, grâce aux moyens technologiques accessibles. Leur réfutation par contre, peut exiger des semaines d’efforts sans aboutir à leur totale neutralisation.            

    3. La vie personnelle est son terrain privilégié

    Imaginons une personnalité publique à qui on attribue une fausse vidéo. Sur quel registre pourrait-on lui nuire davantage ? Il est relativement facile, sur un registre officiel ou professionnel, de prouver qu’une déclaration n’a jamais été faite ou qu’une décision n’a jamais été prise, mais sur le registre personnel ou intime la négation elle-même devient médiatiquement problématique. Nier sa culpabilité en public revient à accepter d’être dans le rôle de « l’accusé ». C’est une stratégie que la plupart des experts déconseillent. Le système médiatique attribue des rôles : quand on est l’accusé, on est perçu comme tel jusqu’à la fin de l’histoire.

    Bref, que la cible soit une personne, un pays, une organisation… le deepfake s’attaque le plus souvent aux personnes. Elles peuvent vivre une immense pression psychologique et en être traumatisées pour très longtemps. Il va de soi que cela affecte l’objectivité et la capacité de prendre des décisions éclairées, à fortiori lorsque l’organisation traverse une crise.                 

    4. Un pari sur le court terme avec des conséquences sur le long terme

    Les deepfakes sont des générateurs d’émotions négatives. Dans la plupart du temps, il est possible d’apporter une preuve technique de leur falsification. Mais le temps que cela se fasse, la déstabilisation qu’ils induisent est bien réelle. Elle constitue un résultat satisfaisant pour la source malveillante, car dans bien des situations l’objectif est de porter des coups tactiques.

    5. L’affranchissement par l’anonymat

    L’anonymat est une formidable « protection » pour les créateurs de deepfakes. Plus le mensonge est grand et surtout spectaculaire, plus il a de chances de se propager largement. Si la victime parvient, après beaucoup d’efforts, à prouver son innocence, l’auteur n’aura qu’à penser à une autre histoire. Cette réalité est doublement injuste : d’un côté, le faussaire pourra récidiver en changeant sans cesse ses identités ou en se dissimulant (ce qui l’épargne de l’effet de perte de confiance après multiples mensonges). De l’autre, la victime qui se fait diffamer par de multiples sources apparentes, tombe sous l’effet d’un absurde raccourci : « il n’y a pas de fumée sans feu » !                   

    6. Un sujet de polarisation

    La réaction des publics dépendra souvent de leurs postures initiales : plus on est hostile à la victime (personne ou organisation) plus on est enclin à propager le contenu. Les préjugés sont déterminants sur le jugement qui s’en suivra.

    La polarisation, accentuée par les réseaux sociaux et les TIC en général, fait que les publics se trouvent enfermés dans des univers où ils sont continuellement exposés à des confirmations de leurs idées et leurs positions sociales. Lorsqu’un contenu abonde dans le sens de leurs croyances, ils l’adoptent et le diffusent. Lorsqu’il induit une remise en question, ils le rejettent car de toute façon il provient de l’autre pôle (le camp ennemi qui a toujours tort).      

    7. La science est devenue opinion

    La crise mondiale causée par la pandémie de la Covid19 a confirmé un fait déjà visible depuis plusieurs années : l’avis scientifique ne fait plus autorité dans les médias et chez l’opinion publique. Beaucoup pensent être en mesure de se prononcer sur des sujets auxquels ils n’ont pas été initiés. Ce fait a été remarquablement démontré par Etienne Klein qui a intitulé un tract publié chez Gallimard : « Je ne suis pas médecin mais je… ». Il y explique comment est-il devenu si facile de se prononcer sur les sujets médicaux sans être médecin. Pire encore, la phrase « je ne suis pas médecin » est employée pour introduire la prise de parole, alors qu’elle devrait au contraire inciter au silence !

    Le lecteur l’aura compris, l’argument technique face au deepfake ne peut pas toujours être assimilé par le grand public, mais cela ne l’empêchera pas de le remettre en question.  

    8. La technique est en constante évolution

    L’IA évolue continuellement. Certaines avancées ne sont même pas dévoilées au grand jour, notamment celles réalisées pour des fins de défense et de guerre médiatique. De ce fait, miser sur des capacités technologiques pour démontrer qu’un contenu est issu du deepfake ne sera pas toujours possible ; surtout pour les personnes ou les organisations ne disposant pas de grands moyens.

    Il est impossible de prétendre connaître toutes les capacités techniques dont disposent les autres, surtout que les utilisations de l’IA font l’objet d’une concurrence de tous les jours. Si on se fait attaquer par une entité plus évoluée technologiquement, on n’a aucune chance de gagner sur le terrain technique.       

    9. La réputation, meilleur rempart

    C’était vrai pour les rumeurs, c’était vrai pour l’humour noir, c’était vrai pour les fakes news, et c’est vrai pour les deepfakes. En fait, le public sera toujours plus indulgent et plus prudent quand l’entité attaquée possède une bonne réputation auprès de lui. On accorde la confiance à un message pour sa substance, pour sa forme et pour sa source. 

    10. « C’est un deepfake ! », une stratégie qui s’essouffle

    Pointer le deepfake est devenu une stratégie de communication largement répandue. On a l’impression que toutes les vidéos dérangeantes sont attribuées à cette technique. Ceci décrédibilise l’argument même lorsqu’il est justifié. Une grande attention doit être portée à la manière de le présenter au public et aux médias. En fait, l’affirmation à elle seule ne peut plus suffire, il faut qu’elle soit étayée par des preuves et dévoilée dans un récit convaincant.

    Les TIC ont contribué à approfondir la complexité des crises d’aujourd’hui. Elles ont apporté de nouvelles menaces mais aussi de nouvelles opportunités. Le deepfake doit systématiquement être considéré comme un risque très probable, avec ce que cela implique comme scénarios de crises qu’il faudra échafauder.  Les organisations qui envisagent cette menace exclusivement sous l’angle technologique s’exposent davantage. C’est un enjeu aux dimensions : sociale, humaine, psychologique, communicationnelle, juridique, culturelle et bien sûr technique.