Quand l'algorithme de Facebook encourage la haine et les fake news

Ce rapport est tellement important !

Je suis pas mal certaine que les gens chez Facebook n’avaient pas l’intention d’encourager les fake news, la peur et les commentaires haineux lorsqu’ils ont décidé de modifier l’algorithme pour prioriser l’engagement.

C’est pourtant exactement ce qui s’est passé. :sweat_smile:

Leur objectif était que Facebook devienne un réseau plus axé sur la famille et les amis. Ils ont donc mis de l’avant l’engagement comme LA métrique la plus importante.

Mais les gens ne réagissent pas autant aux publications positives…

Le résultat, un an après? Les publications qui fonctionnent le mieux sont terrifiantes, négatives ou divisent

Est-ce qu’on s’enligne pour un nouveau changement majeur d’algorithme?

Qu’est-ce que Facebook pourrait faire pour améliorer la situation et prioriser l’engagement positif?

Est-ce que c’est souhaitable de le faire?

En tout cas, je trouve ça super intéressant de lire ça ce matin.

Ça relève de l’anecdote, mais je suis une personne super politisée et j’ai de moins en moins le goût de passer du temps sur Facebook.

Quand j’y vais, c’est pour interagir avec d’autres entrepreneurs dans des groupes privés.

Je ne regarde presque plus mon fil d’actualité, qui est devenu un genre de festival de haine et de déprime, avec occasionnellement une photo de chat. :slight_smile:

3 « J'aime »

Je n ai pas cette expérience là avec facebook!

Nous sommes libre de choisir ce que l’on veux retrouver dans notre
fils d’actualités!

Nous sommes mêmes libres de choisir qui seront nos amies!

Moi je vis que du positif avec facebook, pas de haine, pas de conflits, pas de jugements!

Que des êtres gentils et respectueux!

Haha moi aussi j’ai du positif, mais je vois quand même beaucoup plus de choses négatives qu’avant dans mon fil d’actualités.

Et selon le rapport, je ne suis pas la seule. Ce sont les publications qui sont le plus valorisées par l’algorithme. :open_mouth:

Mais bon, comme je le disais, j’ai un intérêt pour la politique. Probablement que les gens qui n’ont pas d’intérêt particulier pour ça sont épargnés en partie.

La politique enflamme bien des débats en effet! Moi aussi je remarque des changements sur mon fil d’Actualité. Je n’ai jamais autant modifié mes préférences que depuis les dernières semaines…

1 « J'aime »

Tellement vrai…Je n’avais pas pensé à l’algorithme de cette façon là, mais ça a du sens… malheureusement :sweat_smile: Ça porte à réflexion!

1 « J'aime »

Je pense que c’est important de prendre tout ça avec un grain de sel.

Oui, FoxNews a plus d’engagement comparativement à NBC (146M vs 127M), mais ils ont également 16.9M d’abonnés contre 2.9M pour NBC.

Lorsqu’on est libéral, c’est facile de regarder ça et de conclure que l’algorithme supporte injustement Fox News.

Et la en vient la question des articles qui ont le plus d’engagement. Ça ne dit pas de quel type d’engagement il s’agit.

Si je commente “Mais c’est quoi cette merde?” sur un lien, ça va quand même le compter comme un engagement, même si l’objectif est de signifier mon mécontentement envers ce contenu sur mon feed.

Par contre, de dire que les articles qui “pokent” les sujets sensibles comme l’avortement, le droit de la femme et les LGBTQ, c’est certains qu’on va voir beaucoup d’engagement dans tous les sens (positif et négatif).

Et finalement, il y a le problème des fakes news! 4 des 15 histoires les plus commentés étaient fausses.

Pour que tout ça fasse du sens, il faudrait se poser de meilleurs questions:

  • Est-ce qu’il y a eu une augmentation ou une diminution des fake news en 2018 vs en 2017?

  • Est-ce qu’on devrait pénaliser ou favoriser un post en se basant sur les émotion évoqués dans les commentaires? (Avec un truc du genre)

  • Est-ce que Facebook devrait prévenir ou encourager la colère et l’outrage?

  • Quel est le rôle de Facebook dans un discours publique sain?

Certains des titres ici font réagir:

Est-ce correct que ça fasse réagir? Est-ce que Facebook devrait tempérer les gens ou les laisser réagir à leur gré? Devrait-on complètement abandonner l’idée de favoriser/pénaliser le contenu présenté aux gens?

Est-ce que Facebook est responsable du contenu publié sur sa plateforme? Selon les derniers scandals, oui. Alors dans ce cas, quel devrait être sa ligne éditoriale? Parce que c’est naïf de penser qu’une entreprise responsable du contenu publié sur sa plateforme n’aura pas de ligne éditoriale!

That’s complicated stuff…

2 « J'aime »

Yes exact!

Si je comprends bien le rapport, le fait d’encourager l’engagement plutôt que d’autres métriques a rendu ces articles « sensibles » ou « négatifs » beaucoup plus présents qu’auparavant dans le fil d’actualité.

Ça ne semblait pas être l’objectif de Facebook quand ils ont fait le changement (il suffit de lire leurs déclarations de l’époque pour le voir).

Je me demande donc comment ils vont dealer avec ça. Est-ce que l’engagement va rester la métrique la plus importante? Est-ce qu’ils vont tempérer avec d’autres éléments?

On sait qu’ils s’attaquent déjà plus sévèrement aux fake news.

Bref. Tout ça me fascine et je suis vraiment curieuse de voir comment ça va tourner!

Je pense que les Fake News sont le plus gros danger de Facebook en ce moment. Surtout avec les derniers travaux de Open Ai!

En gros, on donne un contexte à un robot et il t’écrit un article “crédible” en 15 secondes prêt à publier!

Les implications sont énormes, on est pas prêt à dealer avec ça!

Rendue là, il faudrait presque réglementer le journalisme web (une licence pour authentifier un être humain d’un robot, peu importe la forme) et ça va à l’encontre du principe de base d’Internet.

1 « J'aime »