La BBC a découvert que des preuves de violations potentielles des droits de l'homme peuvent être perdues après avoir été supprimées par des entreprises technologiques.
Les plateformes suppriment les vidéos explicites, souvent à l'aide de l'intelligence artificielle, mais les séquences susceptibles d'aider les poursuites judiciaires peuvent être supprimées sans être archivées.
Meta et YouTube affirment qu'ils cherchent à trouver un équilibre entre leur devoir de témoigner et celui de protéger les utilisateurs contre les contenus préjudiciables.
Alan Rusbridger, qui siège au conseil de surveillance de Meta, estime toutefois que le secteur a fait preuve d'une "prudence excessive" en matière de modération.
Les plateformes affirment qu'elles prévoient des exemptions pour le matériel graphique lorsqu'il est dans l'intérêt du public, mais lorsque la BBC a tenté de télécharger des images documentant des attaques contre des civils en Ukraine, elles ont été rapidement supprimées.
L'intelligence artificielle (IA) peut supprimer les contenus nuisibles et illégaux à grande échelle. Cependant, lorsqu'il s'agit de modérer les images violentes des guerres, les machines manquent de nuance pour identifier les violations des droits de l'homme.
Ihor Zakharenko, ancien journaliste de voyage, a rencontré ce problème en Ukraine. Depuis l'invasion russe, il documente les attaques contre les civils.
La BBC l'a rencontré dans une banlieue de Kiev où, il y a un an, des hommes, des femmes et des enfants avaient été abattus par les troupes russes alors qu'ils tentaient de fuir l'occupation.
Il a filmé les corps - au moins 17 - et les voitures calcinées.
Il voulait mettre ces vidéos en ligne pour que le monde entier puisse voir ce qui s'était passé et pour contrer le discours du Kremlin. Mais lorsqu'il les a téléchargées sur Facebook et Instagram, elles ont été rapidement retirées.
"Les Russes eux-mêmes disaient que ces vidéos étaient fausses, qu'ils n'avaient pas touché de civils et qu'ils ne s'étaient battus qu'avec l'armée ukrainienne", a déclaré Ihor.
Nous avons téléchargé les images d'Ihor sur Instagram et YouTube en utilisant des comptes fictifs.
Instagram a supprimé trois des quatre vidéos en l'espace d'une minute.
Dans un premier temps, YouTube a appliqué des restrictions d'âge aux trois mêmes vidéos, mais dix minutes plus tard, il les a toutes supprimées.
Nous avons réessayé, mais les vidéos n'ont pas été téléchargées. Un appel visant à restaurer les vidéos au motif qu'elles contenaient des preuves de crimes de guerre a été rejeté.
Des personnalités du secteur affirment qu'il est urgent que les entreprises de médias sociaux empêchent ce type d'informations de disparaître.
"Vous pouvez comprendre pourquoi ils ont développé et entraîné leurs machines à retirer les vidéos dès qu'elles ont l'air difficiles ou traumatisantes", a déclaré M. Rusbridger à la BBC. Le Meta Oversight Board auquel il siège a été mis en place par Mark Zuckerberg et est connu comme une sorte de "cour suprême" indépendante pour l'entreprise, qui possède Facebook et Instagram.
"Je pense que la prochaine question pour eux est de savoir comment nous développons les machines, qu'elles soient humaines ou IA, pour prendre ensuite des décisions plus raisonnables", ajoute M. Rusbridger, ancien rédacteur en chef du Guardian.
- ChatGPT et DALL-E : qui est Sam Altman, l'entrepreneur qui cherche à transformer le monde de l'intelligence artificielle ?
Les atrocités commises pendant la guerre sont documentées sur les médias sociaux. Ce matériel peut être utilisé comme preuve pour aider à poursuivre les crimes de guerre. Mais la BBC s'est entretenue avec des personnes touchées par des conflits violents qui ont vu les principales sociétés de médias sociaux retirer ces contenus.YouTube et Meta affirment qu'en vertu de leurs exemptions pour les séquences de guerre graphiques dans l'intérêt du public, le contenu qui serait normalement supprimé peut être maintenu en ligne avec un visionnage limité aux adultes. Mais notre expérience avec les vidéos d'Ihor suggère le contraire.
Meta affirme qu'elle répond "aux demandes légales valables des organismes chargés de l'application de la loi dans le monde entier" et que "nous continuons à explorer d'autres voies pour soutenir les processus internationaux de responsabilisation [...] dans le respect de nos obligations légales et de nos obligations en matière de protection de la vie privée".
YouTube précise que, bien qu'elle dispose d'exemptions pour les contenus graphiques dans l'intérêt du public, la plateforme n'est pas une archive. Les organisations de défense des droits de l'homme, les activistes, les défenseurs des droits de l'homme, les chercheurs, les journalistes citoyens et les autres personnes qui documentent les violations des droits de l'homme (ou d'autres crimes potentiels) devraient observer les meilleures pratiques pour sécuriser et préserver leur contenu.
La BBC s'est également entretenue avec Imad, propriétaire d'une pharmacie à Alep, en Syrie, jusqu'à ce qu'une bombe baril du gouvernement syrien tombe à proximité en 2013.
Il se souvient que l'explosion a rempli la pièce de poussière et de fumée. Entendant des appels à l'aide, il s'est rendu au marché à l'extérieur et a vu des mains, des jambes et des cadavres couverts de sang.
Des équipes de la télévision locale ont filmé ces scènes. Les images ont été diffusées sur YouTube et Facebook, mais ont été retirées par la suite.
Dans le chaos du conflit, des journalistes syriens ont déclaré à la BBC que leurs propres enregistrements des images originales avaient également été détruits lors de raids de bombardement.
Des années plus tard, alors qu'Imad demandait l'asile dans l'Union européenne, on lui a demandé de fournir des documents prouvant qu'il était sur les lieux.
"J'étais sûr que ma pharmacie avait été filmée. Mais quand je suis allé sur Internet, j'ai été renvoyé vers une vidéo supprimée".
- Pourquoi l’Intelligence Artificielle suscite tant d’inquiétude?
Mnemonic a mis au point un outil permettant de télécharger et de sauvegarder automatiquement des preuves de violations des droits de l'homme, d'abord en Syrie, puis au Yémen, au Soudan et en Ukraine.
Ils ont sauvegardé plus de 700 000 images provenant de zones de guerre avant qu'elles ne soient retirées des médias sociaux, y compris trois vidéos montrant l'attaque près de la pharmacie d'Imad.
Chaque image peut contenir un indice clé permettant de découvrir ce qui s'est réellement passé sur le champ de bataille - le lieu, la date ou l'auteur de l'attentat.
Mais des organisations comme Mnemonic ne peuvent pas couvrir toutes les zones de conflit dans le monde.
Il est extrêmement difficile de prouver que des crimes de guerre ont été commis, c'est pourquoi il est essentiel d'obtenir le plus grand nombre de sources possible.
"La vérification s'apparente à la résolution d'un puzzle : il s'agit d'assembler des éléments d'information apparemment sans rapport les uns avec les autres pour se faire une idée plus précise de ce qui s'est passé", explique Olga Robinson, de BBC Verify.
La tâche d'archiver du matériel de source ouverte - accessible à presque tout le monde sur les médias sociaux - incombe souvent à des personnes qui ont pour mission d'aider leurs proches pris dans un conflit violent.
Rahwa vit aux États-Unis et a de la famille dans la région du Tigré, en Éthiopie, qui a été déchirée par la violence ces dernières années et où les autorités éthiopiennes contrôlent étroitement le flux d'informations.
Toutefois, grâce aux médias sociaux, il existe un témoignage visuel d'un conflit qui, autrement, resterait caché au monde extérieur.
"C'était notre devoir", déclare Rahwa. "J'ai passé des heures à faire des recherches, et lorsque vous voyez ce contenu arriver au compte-gouttes, vous essayez de le vérifier en utilisant tous les outils de renseignement de source ouverte sur lesquels vous pouvez mettre la main, mais vous ne savez pas si votre famille va bien".
Les défenseurs des droits de l'homme estiment qu'il est urgent de mettre en place un système formel de collecte et de stockage en toute sécurité des contenus supprimés. Il s'agirait notamment de préserver les métadonnées permettant de vérifier le contenu et de prouver qu'il n'a pas été modifié.
Mme Van Schaak, ambassadrice des États-Unis pour la justice pénale mondiale, déclare : "Nous devons créer un mécanisme qui permette de conserver ces informations en vue d'éventuels exercices de responsabilisation futurs. Les plateformes de médias sociaux devraient être disposées à conclure des accords avec des mécanismes de responsabilisation dans le monde entier".
Reportage complémentaire de Hannah Gelbart et Ziad Al-Qattan.