Filtrage de Facebook
Comment Facebook détecte les contenus inappropriés
Facebook a annoncé hier avoir supprimé 5,4 milliards de faux comptes d'utilisateurs depuis le début de l'année. Dans son dernier rapport sur la transparence, le groupe rapporte avoir amélioré ses capacités de détection et de blocage des contenus inappropriés sur sa plateforme.
Basée sur ce rapport, notre infographie montre l'efficacité de Facebook à détecter les différentes catégories de contenu enfreignant les règles d'utilisation. S'il est facile pour une intelligence artificielle d'identifier des images impliquant de la nudité, de la violence explicite ou encore d'exclure les spams, il lui reste difficile de reconnaître les discours de haine et cas de harcèlement, qui demandent bien souvent une compréhension du contexte et une interprétation humaine.
S'appuyant principalement sur la technologie pour détecter ce type de contenu - l'intervention humaine ayant lieu plus tard dans le processus d'examen -, il n'est pas surprenant de voir que Facebook lutte encore pour identifier ces contenus avant le signalement de ses utilisateurs. Bien que le taux de réussite du réseau social en matière de filtrage des discours haineux se soit significativement amélioré, passant de 52 % à 80 % au cours des 12 derniers mois, il reste encore nettement inférieur à celui des contenus inappropriés les plus explicites.
Description
Ce graphique montre le % de contenu illicite détecté par Facebook avant le signalement de ses utilisateurs (au T3 2019).