YouTube a révélé l'étendue de son problème de vidéo, avec un total de 8,3 millions de vidéos retirées du site d'octobre à décembre dernier..

Parmi ces vidéos, quelque 6,6 millions ont été signalées par un algorithme. Les autres ont été capturés par des yeux humains qui, nous le pensons, ont besoin d'un peu de blanchiment maintenant.

Le rapport de transparence sur l'application des règles de la communauté YouTube indique ce que Google fait pour s'assurer que YouTube est un lieu sûr à visiter. Mais cela révèle également à quel point le site pourrait être sujet à controverse s'il ne disposait pas de ces mesures - mesures que beaucoup pensent encore ne vont pas assez loin pour endiguer le flot d'images haineuses ou abusives.

Le rapport indique que sur les vidéos retirées, 75% n'ont jamais été visionnées par le public. Retournez cela, cependant, et cela signifie qu'un quart étaient.

C’est le public qui fait le gros du travail que YouTube devrait faire, agissant en tant que modérateurs du site en signalant le contenu si nécessaire. Actuellement, 30% de ce qui est signalé est un «contenu sexuel», tandis que 26% est identifié comme un «spam ou trompeur». Le contenu "haineux ou abusif" occupe 15% du temps, le contenu "violent ou répugnant" représentant 13% des vidéos signalées.

drapeau rouge

Dans le rapport, YouTube explique un peu plus son programme Trusted Flagger, qui est disponible pour les agences gouvernementales et autres institutions. Pour YouTube, il s’agit d’un programme prioritaire, mais les vidéos sont vérifiées de la même manière que si un utilisateur normal signalait une vidéo, elles sont simplement hiérarchisées..

“Le programme Trusted Flagger a été développé pour permettre aux indicateurs très efficaces de nous avertir du contenu qui enfreint nos consignes de la communauté via un outil de génération de rapports en masse.,” dit le rapport.

“Les personnes présentant des taux de précision élevés, les ONG et les agences gouvernementales participent à ce programme, qui offre une formation à l'application des consignes de la communauté YouTube..”

L'intégralité, toutefois, des vérifications vidéo est effectuée par l'IA - une chose qui ne changera probablement pas étant donné la quantité de contenu signalée, bien que YouTube recrute des milliers de personnes pour l'aider..

“YouTube a développé des systèmes automatisés permettant de détecter le contenu susceptible d'enfreindre nos règles. Ces systèmes automatisés se concentrent sur les formes d'abus les plus flagrantes, telles que l'exploitation des enfants et l'extrémisme violent,” lit le rapport.

“Une fois que le contenu potentiellement problématique est signalé par nos systèmes automatisés, un examen humain de ce contenu vérifie que le contenu enfreint effectivement nos règles et permet au contenu d'être utilisé pour former nos machines en vue d'une meilleure couverture future..

“Par exemple, en ce qui concerne les systèmes automatisés de détection de contenu extrémiste, nos équipes ont examiné manuellement plus de deux millions de vidéos afin de fournir un grand nombre d’exemples de formation qui améliorent la technologie de repérage d’apprentissage automatique..”

Il ajoute que, en 2017, les systèmes automatisés ont permis de repérer davantage de contenu extrémiste violent à des fins d'analyse humaine et que ses progrès en matière d'apprentissage automatique ont permis de supprimer près de 70% du contenu de l'extrémisme violent en huit heures et la moitié en deux heures. . Il utilise ce qu'il a appris de cela pour traiter d'autres contenus problématiques.

En ce qui concerne le signalement de ce type de vidéos, l’Inde arrive en tête de la liste des pays ayant le contenu le plus signalé, les États-Unis se classant au deuxième rang - le Royaume-Uni se classant au sixième rang..

Si vous souhaitez voir comment le système de signalement de YouTube fonctionne d'une manière étrangement mignonne, rendez-vous à la vidéo ci-dessous..

  • Les enfants de YouTube ne vont pas bien et cela doit changer rapidement