/opinion/columnists
Navigation

Pourquoi Facebook dose-t-il nos contacts émotionnels ?

Nos réseaux de contacts (ou d’amis) nous appartiennent,

Coup d'oeil sur cet article

Dimanche dernier, Le Journal reprenait une dépêche de l’AFP affirmant que «Facebook a manipulé en secret les émotions de 700 000 utilisateurs pour étudier “la contagion émotionnelle” dans le cadre d’une étude.»

Dimanche dernier, Le Journal reprenait une dépêche de l’AFP affirmant que «Facebook a manipulé en secret les émotions de 700 000 utilisateurs pour étudier “la contagion émotionnelle” dans le cadre d’une étude.»

Faux. Premièrement, Facebook ne manipulait pas les émotions des utilisateurs: il dosait plutôt leur exposition à celles des autres. Deuxièmement, l’entreprise ne l’a pas fait que pour cette étude: il le fait plus ou moins tout le temps.

N’importe quel utilisateur Facebook suivant un grand nombre d’«amis» peut constater que son «Fil de nouvelles» n’est qu’un échantillon de tout ce que ceux-ci publient sur leurs «Mur» et «Journal». Les chercheurs de l’étude sur la contagion émotionnelle sur Facebook le confirment:

«Quels contenus sont affichés ou omis dans le Fil de nouvelles est déterminé par un algorithme de classement que Facebook améliore et teste sans cesse afin d’exposer les lecteurs aux contenus qu’ils trouveront les plus pertinents et engageants. La présente étude fait état d’un tel test, à savoir si des contenus émotionnels sont plus engageants.»

Exposer le lecteur aux pubs

Et effectivement, les chercheurs observent que lorsque les utilisateurs Facebook sont moins exposés à des contenus émotionnels, positifs ou négatifs, ils ont tendance à écrire un moins grand nombre de mots.

D’un point de vue sociologique et de santé publique, l’étude confirme le caractère contagieux des émotions. Sur Facebook, plus les utilisateurs sont exposés à des contenus émotionnels, plus ils expriment ensuite des émotions, positives ou négatives selon le cas. Et ces émotions se propagent à leur tour à leurs «amis» et «amis d’amis».

Du point de vue commercial: plus les utilisateurs Facebook sont exposés à des contenus émotionnels, plus ils sont «engagés». Donc, plus portés à lire et écrire. Donc, plus exposés à des publicités. Donc, à faire faire plus d’argent à Facebook.

Se scandaliser ou non ?

Faut-il se scandaliser de l’existence d’un tel filtrage? Pas vraiment. Si vous suivez des centaines d’«amis», disons que vous avez couru après.

C’est un peu comme le filtrage de Google. Si vous tapez «Égypte», le moteur de recherche recense plus de 5 millions de résultats. Il priorise donc ses premières 20 propositions selon votre profil particulier d’internaute: sites touristiques; ou de nouvelles; ou d’arts; d’histoire; géographie; cuisine; économie; etc.

Le problème n’est pas dans un filtrage des surabondances d’informations. Il est dans qui, à la fin, contrôle ce filtrage.

Pourquoi, si je me sens fragile, ne pourrais-je pas prioriser les émotions positives, mais laisser sans filtre les contenus provenant d’amis proches ou membres de ma famille?

Pourquoi, si je participe à un réseau d’entraide, ne pourrais-je pas faire que mon Fil de nouvelles priorise les contenus provenant de gens exprimant des émotions négatives?

Il s’agit donc d’une question de pouvoir. D’enjeu politique. Nos réseaux de contacts (ou d’«amis») nous appartiennent à nous. Pas aux Facebook et autres médias sociaux.

Tant mieux s’il y a des filtres. Mais que ce soit nous qui les contrôlions.

Commentaires