Utiliser la technologie pour distinguer les faits de la fiction dans les médias en ligne

5 février 2019 Mis à jour: 5 février 2019

Empressés d’exploiter les données des médias sociaux d’aujourd’hui, on a de plus en plus de difficulté à distinguer les faits de la fiction.

L’absence de « vérités » concrètes et vérifiables dans les données des médias sociaux peut parfois faire peur. Par exemple, beaucoup de gens dans les médias grand public, et d’autres en ligne, s’intéressent davantage à fausser les chiffres qu’à souligner l’authenticité. Par exemple, que se passerait-il si vous déclariez que votre post sur les médias sociaux a atteint une portée de 50 % par rapport à votre objectif (une mesure de son impact général), mais que vous omettiez de noter que vous n’aviez voulu comme objectif que deux clients à atteindre réellement ?

L’information partagée sur le Web peut avoir des conséquences dans la vie réelle. Prenons l’exemple de la conspiration « Pizzagate » qui se développait sur les médias sociaux et sur certains sites d’information, alléguant faussement que l’ancienne candidate à la présidence et secrétaire d’État Hillary Clinton était impliquée dans un scandale de trafic d’êtres humains et d’exploitation sexuelle des enfants. Cette théorie du complot a conduit un homme armé d’une arme à feu à se présenter dans une pizzeria de Washington D.C. d’où le prétendu trafic y aurait été centralisé.

Wynne Davis du NPR a suggéré un processus, ou « liste de contrôle« , pour vérifier les données Web, incluant les posts sur les médias sociaux, qui pourrait aider à éviter ce genre de situation. Le processus consiste à vérifier si le contenu a plusieurs sources, enquêter sur la réputation des sources, trouver des citations appuyant le contenu, dont les images, les vidéos ou l’audio, et voir l’actu passée.

Utilisation des données

La vérification des données sur le Web devient de plus en plus importante, car dans le monde d’aujourd’hui, ce que vous affichez sur les médias sociaux peut être utilisé contre vous devant les tribunaux. Par exemple, en 2012, un procureur du comté de Butler, dans l’Ohio, a utilisé des photos et des posts sur Facebook pour démontrer à un jury dans une affaire de meurtre contre un adolescent que, d’après ses goûts et ses messages, le suspect était violent.

Il y a beaucoup d’autres exemples de supports d’informations tirés des médias sociaux, par exemple dans une affaire d’assurance liée à une chute accidentelle, une vidéo sur Internet du plaignant prétendument blessé en train de danser a ruiné l’argument de préjudice et aidé à rendre une décision en faveur de l’assureur.

Dans un autre exemple, une pom-pom girl des New England Patriots a été licenciée après avoir été vue sur une photo Facebook aux côtés d’un homme inconscient couvert de graffitis nazis. Et il y en a beaucoup d’autres.

Dans une étude publiée sur le site Internet Forensic Focus, près de 700 affaires portées devant les tribunaux des États et les tribunaux fédéraux sur une période de deux ans ont fait appel à des données provenant des médias sociaux pour appuyer l’affaire, ce qui montre que ce que vous affichez sur Internet est permanent et peut être utilisé pour ou contre vous au tribunal.

L’American Bar Association (ABA) qualifie cette époque de « Litigation 2.0″ et suggère que les médias sociaux sont un outil essentiel d’intelligence précontentieuse et de contre-interrogatoire.

Outre la vérifiabilité, la réputation des gens est également évaluée à l’aide de données sur les médias sociaux et, de plus en plus, sur le multimédia.

Au cours de la dernière semaine, cela s’est manifesté de façon évidente, alors que différents partis du spectre politique ont tenté d’évaluer les élèves de la Covington Catholic High School et leur rencontre avec Nathan Phillips, ancien combattant et activiste amérindien, au Lincoln Memorial, à Washington, DC.

Pour certains, la vidéo montrait clairement un manque de respect de la part des étudiants porteurs de casquettes Make America Great Again (MAGA) et un manque de déférence à l’égard d’un ancien combattant militaire qui s’y rendait pour marcher en faveur des peuples autochtones. Pour d’autres, avec des perspectives différentes de la vidéo non montrée dans son intégralité à l’origine, les élèves réagissaient simplement pacifiquement à une situation potentiellement dangereuse dans laquelle un groupe d’acteurs inédits lançaient des insultes aux élèves (et à d’autres) au Lincoln Mémorial, et les élèves avaient décidé (avec l’approbation du chaperon) d’interpréter leur chant scolaire pour étouffer ces insultes avant que le militaire ne s’approche des élèves et commence à leur jouer du tambour en pleine figure.

Comment une personne du commun peut-elle rectifier ces comptes très différents ? Et encore plus effrayant, comment peut-on gérer cela en sachant qu’aujourd’hui, les images, les vidéos et l’audio peuvent facilement être trafiquées avec le phénomène du soit-disant « deep-fake, (une technologie de transformations numériques profondément falsifiées) » ?

Madame la Juge Judith Ann Lanzinger, retraitée de la Cour suprême de l’Ohio, a suggéré que « les tribunaux doivent trouver des moyens de faire face à la technologie émergente, en particulier sa capacité de falsifier des photos et de créer de faux comptes sur certaines plateformes de réseaux sociaux », selon le Ohio Journal-News.

Étant donné que plusieurs téléphones et autres appareils peuvent appartenir à la même personne, il est de plus en plus difficile d’authentifier non seulement le contenu, mais « qui » l’affiche.

Réponse aux problèmes

De fausses vidéos (deep-fake) dans lesquelles l’image ou la voix ou autres attributions d’une personne sont synthétisées à l’aide d’algorithmes et de l’intelligence artificielle de manière transparente et presque indétectable par les humains – ont été soulevées comme une grande préoccupation lors des témoignages de Sheryl Sandberg, directrice de l’exploitation de Facebook et de Jack Dorsey, PDG de Twitter, devant le comité du Sénat.

Il a également été question des efforts déployés par certains pays étrangers, qui exploitent ce dilemme et se servent des médias sociaux et d’autres données Web – dans le seul but d’influencer les élections aux États-Unis et dans d’autres pays.

La réaction de Facebook face à ces préoccupations a été d’embaucher plus d’éditeurs de contenu humains et d’utiliser l’intelligence artificielle pour classer automatiquement les posts et les comptes potentiellement faussés. Twitter a reçu une réponse similaire, identifiant plus de 50 258 comptes automatisés sur la plateforme.

Des préoccupations existent, cependant, dans l’édition du contenu au niveau humain, et aussi au niveau de l’importance du pouvoir de Facebook et Twitter pour contrôler l’exploitation sur leurs puissantes plateformes.

En particulier, les conservateurs politiques aux États-Unis et à l’étranger ont laissé entendre qu’ils font l’objet d’un « profilage » ou sont victimes d’un « shadowban » – un processus dans lequel la « portée » d’un compte est réduite au minimum en ne partageant pas largement ses messages avec les partisans. Les conservateurs se sont également plaints de la suspension incorrecte d’importants comptes de médias sociaux, ce qui indique un parti pris.

Techniques disponibles

La technologie utilisée pour créer des données et des vidéos potentiellement faussaires (deep-fake) est largement disponible, dont la technologie FaceSwap sur Github que tout le monde peut télécharger, ainsi que la technologie Vid2Vid de NVIDIA. Les deux ne nécessitent que quelques clics, quelques lectures techniques, et quelques vidéos et images, permettant à l’utilisateur de commencer rapidement à créer ces deep-fake, comme la célèbre vidéo truquée du président Obama faisant un discours qu’il n’a jamais prononcé.

Le Département de la Défense, et en particulier la Defense Advanced Research Projects Agency (DARPA) (« Agence pour les projets de recherche avancée de défense » équivalent à l’organisme en France intitulé, Direction générale de l’Armement), disposent de plusieurs programmes visant à mettre au point une technologie permettant de lutter contre les deep-fake et d’apporter clarté et confiance aux données des médias sociaux et du Web. En particulier, le programme DARPA Media Forensics (MediFor) prévoit apporter des règles d’attribution liées aux vidéos, aux images et aux sons qui permettraient aux utilisateurs de discerner leur authenticité.

De plus, les programmes Deep Exploration and Filtering of Text (DEFT) et Active Interpretation of Disparate Alternatives (AIDA) du DARPA s’efforcent de comparer des faits contradictoires provenant de différents types de médias sur le Web et de fournir une indication de confiance afin que les humains puissent déterminer dans quelle mesure ils doivent y mettre foi.

Ces capacités ne peuvent pas venir assez tôt alors que les gens naviguent sur Internet et dans les médias sociaux en essayant de séparer les faits de la fiction – et de déterminer si les vidéos ou les images sont même réelles.

Chris Mattmann est chercheur principal en données et directeur adjoint de la technologie et de l’innovation au Bureau du dirigeant principal de l’information du Jet Propulsion Laboratory à Pasadena, en Californie.

Les opinions exprimées dans cet article sont celles de l’auteur et ne reflètent pas nécessairement celles d’Epoch Times.

Version originale

RECOMMANDÉ