Le gouvernement britannique déploie une IA anti-propagande de Daech

Le gouvernement britannique déploie une IA anti-propagande de Daech

photo de profil

Par Thibault Prévost

Publié le

L’algorithme, développé par la start-up ASI Data Science sur des fonds publics, peut théoriquement identifier 94 % de la propagande de l’organisation État islamique.

À voir aussi sur Konbini

Pour donner un coup de main aux plateformes d’hébergement de contenu audiovisuel en ligne, qui n’ont souvent pas les moyens techniques et humains de gérer le flux de vidéos pour rester en conformité avec la loi, le gouvernement britannique s’attaque désormais à la diffusion de la propagande de l’organisation État islamique (EI) avec… un algorithme de modération.

Développé par l’entreprise londonienne ASI Data Science, avec une enveloppe de 600 000 livres (676 000 euros), il sera distribué gratuitement aux sites d’hébergement de vidéos de moyenne importance (tout ce qui n’est pas YouTube, en gros) qui le souhaitent.

Et comment fonctionne cette intelligence artificielle (IA) modératrice de propagande djihadiste, alors ? Évidemment, ASI Data Science refuse de révéler le nombre et le type de critères sur lesquels elle se fonde pour déterminer le potentiel “propagandiste” de telle ou telle vidéo. BBC News croit néanmoins savoir que l’algorithme “se base sur des caractéristiques typiques de l’activité de l’EI en ligne”, ce qui ne nous apprend pas grand-chose de plus.

S’agissant d’un algorithme de machine learning, on peut néanmoins facilement deviner comment il fonctionne : ASI Data Science l’a probablement “entraîné” en lui fournissant toute la base de données disponible sur les vidéos de l’organisation terroriste, ce qui lui a permis d’isoler des motifs récurrents : logos, tenues, cadres, mais aussi métadonnées de localisation, par exemple. Ensuite, il ne reste qu’à l’IA de se balader tranquillement dans les serveurs des hébergeurs pour repérer les vidéos potentiellement propagandistes et les soumettre aux modérateurs humains.

250 vidéos mal repérées sur 5 millions

Selon l’entreprise, l’algorithme serait capable de détecter 94 % des vidéos produites par l’organisation terroriste, avec un taux d’exactitude de 99,99 %. Toujours selon les chiffres de l’entreprise, le logiciel de modération se tromperait dans 0,005 % des cas : concrètement, ça signifie que sur un site qui met en ligne 5 millions de vidéos par jour, l’IA va se planter 250 fois et faire passer une vidéo de chatons mignons pour de la propagande djihadiste. La marge d’erreur est visiblement acceptable pour les pouvoirs publics britanniques.

Pour le moment, les entreprises (britanniques et autres) qui le souhaitent peuvent se procurer l’outil sur la base du volontariat… mais la législation pourrait bientôt prendre un tournant coercitif, explique la secrétaire d’État Amber Rudd, en visite dans la Silicon Valley pour présenter le produit aux entreprises américaines, à la BBC. Si la loi britannique venait à évoluer, les entreprises visées (Vimeo, RuTube ou encore notre bon vieux Dailymotion hexagonal) pourraient être obligées d’utiliser ce programme pour diffuser des contenus sur l’Internet du Royaume. Et c’est là que ça deviendrait très, très problématique.

Chat et souris

Si on ne doute pas une minute des bonnes intentions des pouvoirs publics britanniques, qui ne souhaitent après tout que protéger les regards de leurs honnêtes citoyens des atrocités qui “incitent à la violence dans les communautés, font adhérer des gens à leur cause et tentent de répandre la peur dans nos sociétés”les mots sont d’Amber Rudd –, institutionnaliser un dispositif de censure automatique du contenu Web a quelque chose de foutrement dystopique.

Et personne, d’ailleurs, ne s’y trompe : mettre en place ce type de système, de manière obligatoire, n’aurait que très peu de chance d’éradiquer la propagande djihadiste. À l’inverse, l’initiative ne serait qu’une nouvelle passe d’armes dans la grande guerre de l’information menée entre l’EI d’un côté et les gouvernements occidentaux de l’autre. L’EI trouverait forcément une parade, mais l’outil resterait, contrôlant toutes les vidéos postées sur des hébergeurs pour en valider la teneur. Vous avez dit “surveillance” ? Bingo.

L’Arlésienne de l’IA modératrice

D’autre part, la modération pose la question de la neutralité des contenus : lorsque YouTube a déployé sa propre IA anti-Daech, en août dernier, son algorithme a supprimé des comptes de chercheurs, de documentaristes et de journalistes spécialisés sur la question, pensant à tort qu’ils faisaient le jeu de l’organisation terroriste.

Et ne parlons même pas de Facebook, qui bricole depuis deux ans des systèmes de featurings à mi-chemin entre l’IA et la modération humaine, l’un ayant parfois plus d’influence que l’autre, avec des résultats oscillant entre la critique générale (comme lors de son grand raid de fermeture de pages d’information “alternative”, en novembre) et le fiasco total, comme après les révélations des conditions de travail de ses modérateurs de vidéos live, exposés en permanence à tout ce qu’Internet peut offrir de plus infâme.

En l’état, les systèmes d’IA modératrices ne fonctionnent pas : soit ils sont trop laxistes, et ne servent donc à rien, soit ils sont trop zélés, et deviennent des menaces à la libre circulation des idées. Mais l’Union européenne (UE) a besoin de réponses à la question des contenus illicites, alors la Silicon Valley obtempère.

À l’aune de ces injonctions, rappelle The Verge, YouTube et Facebook (particulièrement visées par les États membres de l’UE) se sont empressés de dresser des bilans flatteurs de leurs programmes de modération automatique, affichant respectivement des taux d’efficacité de 98 et 99 % dans la détection des vidéos violentes ou propagandistes. Avec son IA à 99,99 %, le gouvernement britannique offre une solution encore plus efficace aux “petites” plateformes. De quoi généraliser le contrôle des contenus… et les erreurs qui vont avec.