Google et Facebook ont-ils l’obligation de lutter contre la désinformation?

Au cours des dernières années, la recrudescence d’articles de désinformation est devenu un problème majeur du web. Certains articles sont parfois le résultat d’une théorie de conspiration et se retrouvent très bien positionnés sur Google, Bing ou encore partagés sur Facebook ou autres médias sociaux.

Google s’est excusé d’avoir amplifié involontairement la désinformation, promettant d’apporter des « améliorations algorithmiques » à ses filtres de nouvelles afin d’éviter que ce genre de situations ne se reproduisent dans le futur.

Un incident récent est survenu dans la foulée d’un problème semblable sur Facebook. Il y a un mois environ, la page des articles tendances du site de médias sociaux renvoyaient des articles du journal Sputnik News, sponsorisé par la Russie. Comme avec Google, Facebook s’est vite excusé pour le problème et a enlevé les pages.

À une époque où les gens se tournent de plus en plus vers les sites médiatiques du Web pour s’informer, et surtout après un incident violent comme le massacre de Las Vegas, les entreprises ont-elles l’obligation éthique de vérifier les sources qui apparaissent sur leurs sites? John Basl, professeur adjoint de philosophie au Nord-Est, explique:

Les grandes entreprises médiatiques comme Google et Facebook ont-elles le devoir éthique de déloger la désinformation sur leurs sites?

Je pense qu’ils ont l’obligation de faire quelque chose contre la désinformation, mais je ne suis pas sûr qu’ils devraient s’en débarrasser, si cela signifie supprimer l’accès à la désinformation ou cacher des résultats qui sont jugés être de la désinformation. Ce n’est pas seulement une tâche technique difficile : comment s’assurer, par exemple, que les pièces satiriques ne sont pas cachées ou enlevées parce qu’elles sont fausses ? Je pense qu’une meilleure solution est d’identifier ou de signaler la fiabilité des résultats de recherche ou des liens douteux.

Une autre façon pour les médias de respecter leurs obligations et de minimiser les effets nocifs de la désinformation, tout en conservant les valeurs de transparence et d’ouverture, consisterait à mettre en place un moyen de former les utilisateurs de leurs logiciels à repérer les informations erronées et à reconnaître ou évaluer les sources. C’est une solution, au moins potentiellement, qui lutte contre la désinformation sans vouloir imposer une censure néfaste ou malvenue.

En quoi des événements comme le massacre de Las Vegas affectent-ils ce devoir?

Il y a certainement des circonstances où il semble justifié de limiter l’accès à certaines informations pendant un certain temps. Cela est particulièrement vrai dans les cas où la désinformation pourrait être particulièrement dangereuse, où elle pourrait conduire à une mauvaise identification d’une personne innocente comme suspecte et à un danger. Toutefois, il faut tenir compte du fait que les médias sociaux peuvent apporter des avantages importants pendant ces incidents et que les avantages pourraient être considérablement réduits si les médias commençaient à censurer l’information en cas d’urgence.

Bien que les médias d’information traditionnels puissent être en mesure de trouver des sources de matériel plus prudentes et d’éviter la désinformation, ils ne sont pas aussi utiles pour aider à fournir des ressources utiles aux personnes dans le besoin ou à leurs proches. En outre, tout outil mis au point pour la censure temporaire pourrait avoir un double usage et faciliter la censure des médias sociaux ou des résultats de recherche en général. En général, je pense que cela favorise le statu quo. Dans l’ensemble, il serait préférable de mettre en œuvre une approche visant à traiter et éviter la désinformation qui ne soit pas axée sur la censure.

Les algorithmes sont censés être intrinsèquement impartiaux, donc dans quelle mesure les humains devraient-ils interférer avec les résultats des algorithmes?

Il est important qu’il y ait une surveillance humaine assez régulière et, potentiellement, une interférence avec les résultats algorithmiques. Premièrement, le biais se glisse dans les algorithmes de toutes sortes de façons. Si un algorithme de recherche fait une prédiction sur les résultats à servir lorsqu’une recherche est effectuée pour des « attentats terroristes récents », les résultats seront influencés par les événements que nous classons comme étant des « attentats terroristes » et la façon dont nous classons les actes de violence pourrait être le résultat de nombreux biais différents que nous avons. Il est très difficile de considérer les algorithmes comme étant impartiaux même s’ils ne sont pas conçus pour rechercher ou perpétuer les biais. C’est tout simplement une erreur de penser que les algorithmes ne peuvent pas et ne doivent pas non plus entraîner de censure, de partialité et de désinformation.

Deuxièmement, bien que les humains soient souvent biaisés, ils peuvent aussi choisir de corriger ces biais. Si un être humain reconnaît qu’il est susceptible de qualifier un acte d' »attentat terroriste » principalement en raison de son appartenance religieuse, il peut prendre des mesures pour y remédier.

Il est difficile de dire exactement ce que devrait être la forme d’ingérence ou de surveillance humaine. Pour ce faire, il faut trouver un équilibre entre les préoccupations concernant les préjugés humains, la transparence, la censure et d’autres questions et les préoccupations concernant les biais cachés dans les algorithmes et ces coûts. Mais je pense qu’il existe des moyens d’élaborer des politiques d’intervention humaine qui permettent d’atteindre un bon résultat concernant ces préoccupations.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *