TRADUCTION OF ALI BONGO’S DEEP FAKE ARTICLE. TRADUCTION DE L’ARTICLE SUR LE DEEP FAKE D’ALI BONGO





Traduction française



Le bizarre cas et terrifiant cas de la vidéo «Deepfake» qui a contribué à mener une nation africaine au bord du gouffre

Une apparition controversée du président gabonais laisse présager un avenir dans lequel vous ne pourrez plus croire en vos yeux.

Ali Breland
15 Mars 2019


Cet automne, le Gabon a été confronté à une situation politique étrange et délicate. Le président Ali Bongo était absent du pays depuis octobre pour des soins médicaux en Arabie saoudite et à Londres et n'avait plus été vu en public. Les Gabonais et les observateurs étrangers avaient des soupçons à propos de la santé du président, et l’absence de communication du gouvernement ne faisait qu’alimenter ces doutes ; certains avançaient même qu'il était mort. Après des mois sans donner aucune information, le 9 décembre, le vice-président annonça que Bongo avait été victime d’un accident vasculaire cérébral pendant l’automne, mais recouvrait positivement la santé.

En dépit de telles assurances, des groupes de la société civile et de nombreux particuliers se demandèrent pourquoi Bongo, s'il allait bien, n'avait fait aucune apparition publique, à l'exception de quelques photos de lui publiées par le gouvernement, et d'une vidéo sans son. Face à ces spéculations, les conseillers du président promirent qu’il prononcerait son discours habituel du Nouvel An.

Mais lorsque le gouvernement gabonais publia la vidéo, elle souleva plus de questions qu’elle n’en resolvait. En regardant la vidéo, certains Gabonais ont pensé qu’il ne leur restait plus de doutes sur la santé de leur président. Mais les critiques de Bongo n’avaient pas été convaincus. Une semaine après la diffusion de la vidéo, l’armée gabonaise tenta un coup d’État finalement infructueux - le premier dans le pays depuis 1964 - la bizarrerie de la vidéo prouvait que quelque chose n’allait pas avec le président.

Alors que diverses théories sur la vidéo circulaient dans le pays, Bruno Ben Moubamba, un politicien gabonais qui s’est présenté contre Bongo lors des deux élections précédentes, affirma que la vidéo était un deepfake, l’équivalent vidéo de photoshopo permettant de créer de fausses versions de personnes disant et faisant des choses qu’elles n’ont jamais dites ou faites.

Alors que la plupart des médias couvrant les « deepfakes » se concentrent sur des scénarios d’horreurs dans lesquels ils auraient été utilisés contre les États-Unis et d’autres pays occidentaux, les experts avertissent que les "deepfakes" pourraient causer le plus de ravages dans les pays en développement, qui abritent souvent des gouvernements fragiles et des populations aux connaissances numériques naissantes. Plutôt que, par exemple, une fausse vidéo du PDG d'Amazon, Jeff Bezos, annonçant sa retraite, et déclenchant un crash boursier, la désinformation dans certains pays pourrait conduire à des coups d'État, à des violences fondées sur les roles des sexes ou l'origine ethnique, ce qui menacerait la stabilité d'États entiers.

Les genres de désinformation basés sur des textes et sur des images, ayant conduit à des meurtres après publications sur Facebook, au Sri Lanka et au Myanmar et sur WhatsApp en Inde ; pourraient être augmentés par des deepfakes plus convaincants. Les deepfakes pourraient également devenir un outil utilisé par les gouvernements autocratiques pour désinformer et opprimer leurs citoyens. Il n’est pas difficile d’imaginer un dictateur produisant une fausse vidéo d’un adversaire étranger menaçant son pays, pour faire peur à sa population pour qu’elle adhère à un regime autoritaire ou, disons, un gouvernement assoiffé de pouvoir qui utiliserait une fausse vidéo du président pour masquer ses problèmes de santé.

Alors que les experts disent qu’il est impossible de conclure avec certitude si le discours du Nouvel An de Bongo est un deepfake, Moubamba dit que sa conviction est alimentée par un certain nombre de facteurs. Il souligne à juste titre que le visage et les yeux de Bongo semblent «immobiles» et «presque suspendus au-dessus de sa mâchoire». Il note également à juste titre que les yeux de Bongo bougeaient «complètement en décalage avec les mouvements de sa mâchoire».

"La composition de plusieurs éléments provenant de visages différents, fondus en un seul élément, sont les éléments très spécifiques qui constituent un deepfake", a déclaré Moubamba.

Dans la vidéo, Bongo est assis devant un arrière-plan placide, rose corail. La caméra coupe entre deux angles de Bongo de face, ce qui pourrait signaler que la courte vidéo a été modifiée et non réalisée en une seule prise continue.

Certains, en particulier les critiques et les opposants politiques de Bongo, n’ont pas été satisfaits. Owono a déclaré que les activistes Gabonais étaient sceptiques quant à l’apparence rigide de Bongo pendant la vidéo, et les critiques se sont tournés vers Twitter pour signaler des éléments qui les ont amenés à penser que la vidéo pourrait être un deepfake. En plus du sentiment général que quelque chose dans la vidéo ne semblait pas normal, selon Owono, ils se sont concentrés sur deux aspects spécifiques: le peu de fois que bongo cligne des yeux pendant la diffusion de la vidéo (environ 13 fois en deux minutes, pas même la moitié de la moyenne normale), et que ses structures de phrases semblaient différents de celles présentées dans d'autres vidéos de lui - signes possibles d'un deepfake.

Un expert vidéo avec lequel Mother Jones a discuté, n’est pas en désaccord avec l’évaluation de Moubamba.

"Je viens de regarder plusieurs vidéos du président Bongo et elles ne ressemblent pas aux formulations de parole de cette vidéo, et même son apparence ne lui ressemble pas", a déclaré Hany Farid, professeur d'informatique à Dartmouth, spécialiste de la forensique numérique. "Quelque chose ne va pas," dit-il, tout en notant qu'il ne pouvait pas procéder à une évaluation définitive.

L'incertitude est généralisée: Deeptrace Labs, une société de détection de fausses vidéos, a confié à Mother Jones qu'elle ne pensait pas que la vidéo soit un deepfake, bien qu'elle ait également prévenu qu'elle ne pourrait pas procéder à une évaluation définitive.

Julie Owono, directrice exécutive d'Internet sans frontières, une organisation de défense des droits numériques qui a signalé à Mother Jones la controverse du deepfake au Gabon, a expliqué que les critiques de Bongo estimaient qu'il avait toutes les raisons de cacher le véritable statut de sa santé pour protéger les 43 ans de pouvoir de sa famille. Si à un moment donné, le président du Gabon se révèle incapable de diriger, la constitution du pays stipule que le président du Sénat devrait devenir président par intérim et que des élections spéciales seraient organisées dans un délai de 60 jours. La famille Bongo domine les élections présidentielles depuis 1967, date à laquelle le père de Bongo, Omar Bongo, devint président. (Ali a pris le pouvoir en 2009.) Il y a eu des speculations voulant que le parti démocratique gabonais de Bongo voulait être certain d'avoir un candidat prêt à la succession, avant de déclencher ce processus en concédant ce qui pourrait être catastrophique concernant la santé du président.

"C'est déjà un débat national de savoir ou non si le président Ali Bongo est en bonne santé", a déclaré Owono. «Le fait qu’il n’ait pas été en mesure de désigner un successeur ouvre le champ, ouvre les élections, à un large éventail de candidats non choisis par la famille dirigeante. Les groupes de la société civile croient donc que cela donne au gouvernement la motivation nécessaire pour mentir. »

Marc Ona Essangui, militant écologiste, membre éminent de la société civile gabonaise, estime que la vidéo est préoccupante et fait partie des tentatives du gouvernement de masquer les problèmes de santé qui pourraient rendre Bongo inapte à servir comme président. Mais il a dit par email qu’il pensait que c’était bien Bongo dans la vidéo et que toute différence dans son apparence et ses habitudes de parole pourrait s’expliquer par un accident vasculaire cérébral.

Des experts en Deepfake, tels que Aviv Ovadya, le technologue en chef du Center for Social Media Responsibility de l’Université du Michigan, ainsi que de Farid, de Dartmouth, ont déclaré qu’il était très difficile de savoir si la vidéo était réellement une deepfake, mais cette possibilité était néanmoins dommageable.

"Que ce soit réel ou non, cela crée toujours une incertitude", a déclaré Ovadya. Cette incertitude engendre des coûts, a-t-il expliqué, soit pour les organisations de médias contraintes de consacrer du temps et des ressources à la lecture de telles vidéos, soit pour des sociétés confrontées à des débats sur leur authenticité.

Des methodes de désinformation utilisant des technologies de pointe ont déjà provoqué des violences dans certains pays, et la société civile aussi bien que des groupes d’activistes dans ces pays s'attendent à ce que les deepfakes aggrave encore plus la manipulation des médias. Si les deepfakes proliféraient, les plates-formes de médias sociaux telles que Facebook, qui a déjà été condamnée par les Nations Unies pour leur rôle dans la diffusion de désinformation et de haine, seraient totalement détruites.

«Tout le monde loue l'utilité de l'IA pour les gouvernements africains. Mais personne ne mentionne les risques, qui ne sont pas de la science-fiction », a déclaré Owono. "Nous avons vu ce qui est possible avec un contenu écrit, mais nous n'avons même pas encore vu ce qui est possible avec un contenu vidéo."

«Il est déjà assez difficile de vérifier les informations en temps normal, avec des régions du pays qui restent inaccessibles et où la presse menacée. Mais il s'agirait essentiellement de rumeurs, pour lesquelles le Myanmar n'est absolument pas préparé », a déclaré Victoire Rio, conseillère du Myanmar Tech Accountability Network. Le Myanmar, où se trouve Rio, a déjà été témoin de l’effet le plus déchirant de la désinformation. Le gouvernement du Myanmar et des activistes antimusulmans ont utilisé Facebook pour diffuser de fausses informations qui ont entraîné une augmentation de la violence ethnique à l’encontre de la minorité réprimée Rohingya.

Rio a expliqué que le Myanmar et les pays de ce type, dotés de gouvernements fragiles et déchirés par des conflits, s'acclimatent toujours au flux d'informations rapide d'Internet; les deepfakes ajoutent une couche complexe à un paysage médiatique déjà très jeune

«Le Myanmar est essentiellement passé de la rareté de l’information à la surcharge d’informations. Les gens avaient l'habitude d'obtenir leurs informations de leurs amis et de leur famille et de compter sur ce lien interpersonnel et cette confiance », a-t-elle expliqué. "Le monde numérique est une bête complètement différente, et il faudra du temps pour développer la résilience face aux tactiques de désinformation."

Owono d’Internet sans frontières a déclaré que les tentatives des plates-formes Internet pour endiguer la désinformation dans les pays en développement, étaient bien mince en comparaison de leurs efforts dans les pays occidentaux. «Les plateformes doivent trouver des solutions. Plus elles prendront de temps pour s'attaquer aux problèmes, plus les choses s’empireront », prévient-elle.

Les entreprises de technologie insistent sur le fait qu’elles soient attentives. Un porte-parole de YouTube a expliqué à Mother Jones ses efforts en matière de lutte contre la désinformation, affirmant que cette société travaillait avec des experts en matière de deepfakes et qu'elle "investissait dans la recherche pour comprendre comment l'intelligence artificielle pourrait aider à détecter ce contenu synthétique à mesure qu'il se présente". Sa société mère Google explore des moyens d'aider la société civile, les universités, les salles de rédaction et les gouvernements à développer leurs propres outils de détection des outils de désinformation fondés sur l'IA, tels que les deepfakes.

Un porte-parole de Facebook a déclaré que la société faisait également attention à la menace imminente de deepfakes.

"Nous avons élargi nos efforts en cours pour lutter contre les médias manipulés afin d'inclure la lutte contre les deepfakes", a déclaré un porte-parole, ajoutant que la société "investissait dans de nouvelles solutions techniques, mettant a profit les recherches universitaires et d’autres formes de supports manipulés. » La société privée a déclaré disposer d’équipes d’ingénierie spécialisées dans la conception d’outils permettant de repérer les images, l’audio et la vidéo manipulée.

Les petits pays sont fragiles et ne disposent pas des moyens nécessaires pour limiter l’impact de Deepfakes, comme les pays les plus puissants, et dépendront en particulier des entreprises telles que Facebook et YouTube pour les contrer. Alors que les experts prédisent qu'aucun pays ne serait à l'abri, les pays développés disposant d'une presse solide et indépendante et d'autres contrôles démocratiques sont moins susceptibles d'être sensibles aux tentatives du gouvernement de manipuler l'opinion publique avec des vidéos deepfake.

Farid a confié à Mother Jones qu'environ une demi-douzaine de politiciens de pays en développement, a travers le monde entier, lui auraient demandé d'analyser des vidéos prétendant souvent les présenter dans une situation sexuelle compromettante. (Citant des accords de confidentialité, Farid a refusé de révéler les noms des politiciens ou leur pays d'origine.) Dans une nouvelle ère où l'authenticité de la vidéo sera sérieusement mise en doute, Farid craint que les lignes de vérité ne se brouillent de manière préjudiciable à la stabilité nationale.

«À certains égards, peu importe si c’est un faux. Ce n’est pas le problème sous-jacent. Il peut être utilisé pour saper la crédibilité et jeter le doute », a déclaré Farid. «Je ne pense pas que notre société soit prête. Nos législateurs ne sont pas prêts. Les entreprises technologiques ne sont pas prêtes. Cela va nous frapper fort et nous allons devoir nous battre pour essayer de les contenir. "

Comments

Popular posts from this blog

GAGAN GUPTA’S MASTERFUL TRICK! LA MAGISTRALE ENTOURLOUPE DE GAGAN GUPTA !