Les auteurs de "fake news" n'auront plus un cent de Facebook
Lors de son passage ce matin à Bruxelles, la directrice opérationnelle de Facebook, Sheryl Sandberg, a établi un constat: notre monde est polarisé. Un élément sur lequel Facebook se doit de réagir, question de responsabilité.
Salle comble mardi à Bruxelles pour écouter Sheryl Sandberg, directrice des opérations chez Facebook. Après un passage éclair à Paris lundi, c’est dans la capitale de l’Europe que la dirigeante a dès le lendemain posé ses valises pour faire état des différentes actions mises en place par le réseau social bien connu dont elle occupe l’une des plus hautes fonctions depuis près de dix ans.
Au programme, trois réflexions à mener, mais surtout un constat: "il est clair que nous vivons aujourd’hui dans un monde polarisé. On le voit lors des élections, des conversations qui rythment notre quotidien, mais aussi des politiques dont les gens discutent". "Nous faisons actuellement face aux défis politiques et sociaux les plus clivants de notre histoire". Si les causes sont multiples, de la mondialisation des échanges à la montée en puissance de la technologie, autant de phénomènes "qui ont tiré des gens vers le haut, mais aussi laissé d’autres sur le bord de la route", force est de constater qu’il existe aujourd’hui un "fossé" entre les parties composant notre société.
Si mondialisation et technologie ont tiré des gens vers le haut, elles en ont aussi laissé au bord de la route.
C’est pourquoi "les géants du web doivent faire mieux" en la matière. Et, plus particulièrement, "nous, chez Facebook, devons faire mieux", a déclaré Sheryl Sandberg. "Il nous reste énormément de choses à améliorer".
1. Données et confidentialité
Face à la création sans cesse croissante de data dans le monde, "la confidentialité va devenir une question de plus en plus importante". Surtout que la quantité de données générées devrait être multipliée par dix d’ici 2025, selon les estimations du géant américain. Une réalité qui ne concerne "pas seulement les réseaux sociaux, mais presque tout type de business qui utilise les données récoltées auprès des utilisateurs pour améliorer ses services".
Quid de l’arrivée en mai du règlement général sur la protection des données (GDPR)? "Nos applications ont longtemps été conçues avec l’idée de transparence et de contrôle aux utilisateurs", tempère Sheryl Sandberg. "Cela nous donne des bases solides pour rencontrer les conditions requises". "Mais nous ne pouvons pas nous en contenter. Nous allons aider en parallèle les petites et moyennes entreprises à en comprendre les enjeux. Nos premiers workshops démarreront dès demain".
2. Discours haineux et terroristes
Facebook a une responsabilité quant à la prévention de la propagation des discours haineux et terroristes.
Sur ce point, la dirigeante est on ne peut plus claire: "Facebook a une responsabilité quant à la prévention de la propagation des discours haineux et terroristes en ligne". Et à ce titre, le réseau social compte réaliser des investissements "majeurs" dans l’intelligence artificielle et la supervision humaine en vue de détecter et de retirer plus rapidement les contenus qui iraient à l’encontre de la politique maison. "Nous allons doubler notre équipe de 10.000 personnes en charge de la sécurité d’ici la fin de l’année".
Signe de l’échec de sa stratégie actuelle? Non, en l’état, "99% du contenu liée à l’État islamique ou à Al-Qaïda est supprimé avant qu’il n’ait été vu". Et pour continuer à réduire le nombre d’éléments qui passeraient en les mailles du filet, le géant américain entend collaborer avec ses homologues en mettant sur pied une base de données communes des mots-clés problématiques. "De la sorte, lorsqu’un contenu est publié sur une plateforme, tous les acteurs du net travaillent ensemble afin de s’assurer qu’il ne soit jamais vu par qui que ce soit".
Bien, mais quid des discours haineux, plus difficiles à labelliser comme tel? "C’est plus compliqué il est vrai", reconnaît Sheryl Sandberg. Comme dans le cas "des gens qui récupèrent à leur compte un langage historiquement utilisé contre eux" par exemple. Sans que cela ne soit offensant entre ces mêmes personnes. Dès lors, "nous devons suivre très attentivement les travaux académiques de manière à améliorer nos systèmes".
3. Utilisation abusive de la plateforme
Si les interférences dans le processus électoral n’ont rien de nouveau, "nous constatons désormais une menace nouvelle dans les contenus produits en ligne par un certain type d’utilisateurs", comme dans le cas de l’élection de Donald Trump aux Etats-Unis. En conséquence, le bras droit de Mark Zuckerberg annonce l’embauche prochaine de "milliers de personnes" pour superviser les contenus et publicités qui circulent sur le réseau. Aux grand maux, les grands moyens.
Et comme le problème, désormais connu sous l’appellation de "fake news", ne s’arrête pas qu’à ce simple cas de figure, mais, au contraire, touche le quotidien des utilisateurs, Facebook se devait de prendre position. "Nous ne pourrons jamais empêcher tout à fait ce type de contenus sur la plateforme, par contre, nous pouvons prévenir sa propagation".
On se trompe en disant que les motivations des auteurs de fake news sont politiques. Bien souvent, elles sont économiques
Comment? "L’on se trompe en disant que les motivations de leurs auteurs sont politiques. Bien souvent, elles sont économiques. Ces gens écrivent ces titres pour attirer le clic et donc générer de l’argent. Pour faire face à cela, nous allons leur bloquer l’accès de nos espaces publicitaires et ainsi leur retirer l’incitant financier qui les motive".
Les plus lus
- 1 Paul Gheysens, le redouté magnat de l'immobilier aux deux visages
- 2 ING, AXA et Deutsche Bank dénoncent l’insécurité à Bruxelles
- 3 Le budget wallon est voté: qu'est-ce qui va changer en 2025?
- 4 Euroclear cible d’une fraude de 2 milliards, mais le parquet refuse d’enquêter
- 5 BNP Paribas Fortis doit payer une amende européenne de 10 millions d'euros