| Bonjour, Des théories du complot à la propagande, l’algorithme de YouTube met parfois en avant de très nombreuses vidéos controversées. Vous êtes-vous déjà demandé pourquoi il continue de recommander le même contenu racoleur, même après avoir cliqué sur « Je n’aime pas » ou « Ne pas recommander » ? Nous aussi, et nous nous sommes penchés sur la question. Ce que nous avons découvert est alarmant : les mécanismes de contrôle dont disposent les utilisateurs et utilisatrices de YouTube ne fonctionnent pas toujours et ne parviennent généralement pas à empêcher les recommandations indésirables. Lisez le rapport et demandez à YouTube de fournir à ses utilisateurs et utilisatrices de véritables outils de contrôle des vidéos suggérées ! Dans notre rapport intitulé « Ce bouton fonctionne-t-il ? Enquête sur les contrôles d’utilisation inefficaces de YouTube », nous avons étudié les mécanismes dédiés aux retours de YouTube avec l’aide de 20 000 membres de la communauté Mozilla qui ont partagé leurs données via notre extension pour navigateur RegretsReporter. Voici ce que nous avons constaté : Les internautes ne contrôlent pas leur expérience sur la plateforme vidéo Même après avoir utilisé les mécanismes de retours, l’algorithme de YouTube recommande souvent des vidéos indésirables YouTube peut résoudre ce problème Ces découvertes remettent en question deux des principales promesses marketing de YouTube : la possibilité de personnaliser son expérience et la capacité de l’algorithme à optimiser la satisfaction des utilisateurs et utilisatrices. Il est grand temps pour YouTube de corriger ses outils dédiés aux retours et de laisser les internautes aux commandes de leur expérience sur la plateforme. Nous vous invitons à lire l’intégralité du rapport « Ce bouton fonctionne-t-il ? » et à signer notre pétition pour demander à YouTube de corriger ses outils dédiés aux retours ! Notre inquiétude s’accroît encore davantage alors que ces constatations s’ajoutent à celles de notre précédente étude sur YouTube. Réalisée en 2021, « YouTube Regrets » révélait que l’algorithme de YouTube fait la promotion de vidéos contenant de la désinformation, des propos haineux et de la violence. Un système de suggestions de vidéos qui recommande régulièrement des contenus dangereux et ne tient pas systématiquement compte des retours des internautes doit impérativement être corrigé. De notre côté, nous pouvons clairement suggérer à YouTube comment agir. Merci de nous aider à faire pression sur la plateforme vidéo en partageant notre rapport et en signant notre pétition. Découvrez plus de détails sur les résultats de notre étude et demandez à YouTube de corriger ses outils dédiés aux retours ! Merci, Christian Bock Responsable du plaidoyer pour l’Allemagne Mozilla | |
|