L’Espagne prépare la mise en service d’un système de mesure automatisée de la haine en ligne, présenté par le Premier ministre Pedro Sánchez lors du premier Forum contre la haine, le 11 mars 2026 à Madrid.
Le Premier ministre espagnol Pedro Sánchez
Écrit par Gaspard Lignard
Ce dispositif s’inscrit dans une stratégie plus large du gouvernement espagnol visant à « reprendre le contrôle » des plateformes, à la suite d’une série d’annonces sur la lutte contre les contenus illégaux et l’encadrement de l’accès des mineurs.
Il intervient dans un contexte européen où les États cherchent à rendre plus contraignantes les obligations de transparence et de modération imposées aux acteurs dominants du numérique.
Un système de classement à forte portée politique
L’outil,
baptisé « Hodio » pour « Huella del Odio y la Polarización » (Empreinte de la
haine et de la polarisation, ndlr), doit être mis en œuvre par l’Observatoire
espagnol du racisme et de la xénophobie et se veut fondé sur des « critères
académiques reconnus », selon Le Figaro.
Selon le Premier ministre Pedro Sánchez ,
cet outil « va permettre de mesurer de façon systématique la présence,
l’évolution et la portée des discours de haine sur les plateformes numériques »
et de publier régulièrement des résultats détaillant la performance de chaque
service, selon El Mundo. Les autorités prévoient un rapport semestriel incluant
un classement des plateformes, censé rendre visible l’ampleur des contenus
problématiques et la réaction de chaque opérateur.
Pedro Sánchez a déclaré : « Nous allons rendre publics
les résultats afin que tout le monde sache qui freine la haine, qui détourne le
regard et qui fait du business avec la haine. » Il a ajouté : « L’objectif est
très clair : sortir la haine de l’ombre, la rendre visible, exiger des comptes
à ceux qui n’agissent pas », liant explicitement cette démarche à
l’augmentation des « délits de haine » en Espagne au cours de la dernière
décennie.
Le gouvernement entend ainsi renforcer la
pression politique et réputationnelle sur les plateformes, en complément des
instruments juridiques prévus par le règlement européen sur les services
numériques (DSA).
Des incertitudes méthodologiques majeures
Plusieurs rapports officiels soulignent toutefois les
difficultés méthodologiques liées à la quantification des contenus haineux :
définition variable de la « haine », divergences entre ce qui est illicite
pénalement et ce qui relève seulement de la liberté d’expression, dépendance à
la qualité du signalement, selon Legifrance.
La Commission nationale consultative des
droits de l’homme (CNCDH) relevait déjà, dans son avis sur la haine en ligne,
que « les différentes approches retenues par les plateformes afin de définir
les contenus haineux » empêchent une comparaison fiable des chiffres. En
France, le bilan 2022 de l’Arcom montre que les opérateurs fournissent des données
hétérogènes, issues de procédures internes très différentes, ce qui complique
l’évaluation objective de leurs performances.
La fiabilité du futur classement espagnol dépendra donc
de paramètres techniques largement invisibles pour le grand public : corpus
analysés, seuils de détection, modèles de langage, place laissée à la
vérification humaine.
Or, la CNCDH comme plusieurs analyses juridiques
rappellent que la transparence sur ces outils conditionne le respect des droits
fondamentaux, notamment la liberté d’expression et le droit au recours. Sans
publication détaillée de la méthodologie, le classement risque de transformer
un phénomène complexe en indicateur simplifié, difficilement contestable par
les utilisateurs et les chercheurs.
Le risque assumé d’un surblocage algorithmique
Les autorités françaises ont déjà mis en garde contre un
« risque de surblocage » lorsque les plateformes sont soumises à des objectifs
chiffrés de retrait rapide des contenus signalés. La CNCDH observe que la
combinaison d’algorithmes de détection et d’incitations réglementaires fortes
peut conduire à la suppression préventive de contenus licites, « par prudence
», au détriment du pluralisme.
Le rapport de l’Arcom note également que la tendance à automatiser la modération demeure encadrée de manière inégale selon les acteurs, certains ne documentant que très partiellement leurs outils et leurs taux d’erreur. Dans ce contexte, un classement public comme celui promis par Hodio pourrait encourager les plateformes à privilégier la réduction statistique des contenus problématiques, plutôt qu’un examen plus fin de la légalité et du contexte.
Les recherches sur la modération automatisée montrent que les
discours minoritaires, politiques ou militants sont souvent plus exposés aux
erreurs de filtrage, en particulier lorsqu’ils utilisent un vocabulaire
potentiellement sensible.
Sans garde‑fous procéduraux – voies de recours effectives, accès aux données pour les chercheurs, audit indépendant – la logique de classement pourrait donc se traduire par un renforcement opaque du pouvoir normatif des acteurs publics et privés sur la parole en ligne.
[Photo : OSCAR
DEL POZO/AFP via Getty Images - source : www.epochtimes.fr]

Sem comentários:
Enviar um comentário