Le scandale prend de l’ampleur. Meta et TikTok sont accusés d’avoir laissé proliférer des contenus dangereux pour maximiser l’engagement des utilisateurs. Selon plusieurs lanceurs d’alerte, les plateformes auraient sciemment favorisé des contenus provoquant colère, choc ou indignation. En effet, ces révélations interviennent après des années de croissance explosive des réseaux sociaux. Selon une enquête de la BBC, plus d’une dizaine d’insiders décrivent une industrie dominée par une logique simple : capter l’attention, coûte que coûte. Toutefois, derrière cette mécanique, les conséquences humaines deviennent de plus en plus visibles.
Une machine à engagement basée sur la colère
Le cœur du problème repose sur les algorithmes. Selon des documents internes, les contenus qui suscitent l’indignation génèrent beaucoup plus d’interactions que les contenus neutres ou positifs. En effet, les plateformes interprètent ces réactions comme un signal de préférence. Par conséquent, elles proposent davantage de contenus similaires. Ce cercle vicieux transforme progressivement les fils d’actualité.
Selon un ancien ingénieur, les contenus “borderline” ont été volontairement autorisés pour augmenter le temps passé sur les plateformes. Cela inclut des contenus misogynes, complotistes ou violents. Toutefois, ces choix ne sont pas présentés publiquement comme des stratégies assumées.
A lire également : TikTok, amour et scandale : Barnabé risque 8 ans de prison
La pression économique au cœur des décisions
Selon un ancien employé de Meta, les décisions ont été influencées par des impératifs financiers. La baisse du cours de l’action aurait poussé à relâcher les filtres de modération. En effet, plus les utilisateurs restent longtemps sur une application, plus les revenus publicitaires augmentent. Ce modèle économique crée une tension permanente entre sécurité et profit.
Par ailleurs, la montée en puissance de TikTok a intensifié cette pression. Meta a tenté de réagir rapidement avec Instagram Reels. Toutefois, ce lancement s’est fait sans protections suffisantes selon plusieurs chercheurs internes. Selon des données internes, les commentaires sur Reels présentent 75 % de harcèlement en plus, ainsi qu’une hausse des discours haineux et violents.
A lire également : Bénin : le pouvoir des influenceurs sur TikTok, 8 ans de souffrances à réparer
Une course technologique incontrôlable
Les ingénieurs eux-mêmes reconnaissent les limites du système. Selon Ruofan Ding, ancien développeur chez TikTok, les algorithmes fonctionnent comme une “boîte noire” difficile à maîtriser. En effet, les contenus sont traités comme de simples données. Les systèmes ne comprennent pas réellement le sens des publications. Ils analysent uniquement les comportements des utilisateurs.
Par ailleurs, les équipes techniques dépendent fortement des équipes de modération. Toutefois, ces dernières semblent dépassées par le volume de contenus. Selon plusieurs témoignages, les outils permettant de signaler du contenu problématique restent inefficaces.
A lire également : Bénin : arrestation de plusieurs cybercriminels à Porto-Novo
Des jeunes particulièrement exposés
Les conséquences sont particulièrement inquiétantes chez les adolescents. Selon plusieurs témoignages, les jeunes utilisateurs sont régulièrement exposés à des contenus violents ou haineux. En effet, certains cas montrent des dérives extrêmes. Un jeune utilisateur affirme avoir été “radicalisé par l’algorithme” dès l’âge de 14 ans.
Ces contenus alimentent des émotions fortes. Par ailleurs, ils renforcent des biais existants. Cela crée un environnement numérique propice à la polarisation. Selon des experts en lutte contre le terrorisme, les discours extrémistes et violents sont de plus en plus normalisés en ligne.
A lire également : Enlèvement bidon sur TikTok : 02 influenceurs béninois rattrapés par la justice
La sécurité reléguée au second plan
Les révélations les plus sensibles concernent la modération. Selon un employé de TikTok, certaines décisions internes privilégient les relations politiques plutôt que la sécurité des utilisateurs. En effet, des cas impliquant des personnalités publiques auraient été traités en priorité. Toutefois, des signalements concernant des mineurs auraient été relégués à un niveau inférieur.
Par ailleurs, les équipes de modération sont sous pression constante. Les restructurations et l’usage croissant de l’intelligence artificielle compliquent leur travail. Selon ce lanceur d’alerte, le volume de contenus dangereux dépasse largement les capacités de traitement actuelles.
A lire également : Juste Crépin Gondo quitte temporairement les réseaux sociaux
Une industrie sur la défensive
Face à ces accusations, les plateformes contestent fermement. Meta affirme ne pas promouvoir de contenus dangereux à des fins financières. TikTok parle de “fausses accusations” et met en avant ses investissements dans la sécurité. Toutefois, les critiques persistent.
Selon plusieurs experts, les plateformes contribuent activement à la polarisation sociale. En effet, le modèle même des réseaux sociaux repose sur l’engagement. Or, les émotions négatives restent les plus puissantes pour capter l’attention.
Vers une remise en question du modèle ?
Ce scandale pourrait marquer un tournant. Selon plusieurs observateurs, les autorités pourraient renforcer la régulation des algorithmes. En effet, la question dépasse désormais le simple cadre technologique. Elle touche à la santé mentale, à la cohésion sociale et à la sécurité publique.
Toutefois, les plateformes restent des acteurs majeurs du numérique mondial. Toute transformation nécessitera des changements profonds dans leur modèle économique. Une chose apparaît clairement : l’économie de l’attention repose aujourd’hui sur une mécanique fragile, alimentée par la colère et la division. Et pour la première fois, cette réalité est exposée de l’intérieur.
