Decision Maker Response

Facebook’s response

Dec 9, 2015 — A l’attention de Julie et de tous ceux qui ont signé la pétition,

Nous accordons une grande importance aux retours de notre communauté et voulons tout d’abord tous vous remercier d'avoir pris le temps de partager vos réflexions avec nous.

Les terroristes, leur propagande et ceux qui en font l’apologie n’ont pas leur place sur Facebook. Nos standards de la communauté (https://www.facebook.com/communitystandards/) sont très clairs à ce sujet, et nous faisons tout ce qui est en notre pouvoir pour nous assurer que des terroristes ou des groupes terroristes ne puissent pas utiliser notre site.

Notre objectif est de permettre à chacun de nos utilisateurs de s’exprimer, de partager avec ses proches autour de sujets qui lui tiennent à cœur. Pour que cela soit possible, nos utilisateurs ont besoin de savoir que nous travaillons d’arrache-pied pour assurer leur sécurité sur Facebook. C’est pourquoi nous avons des règles claires et strictes – les standards de la communauté - qui définissent ce qui est inacceptable sur notre plateforme . Ces règles bannissent explicitement tout contenu pro-terroriste.

L'outil le plus puissant demeure la mobilisation de notre communauté d’1,5 milliard de personnes, particulièrement active et vigilante : alors que des milliards de nouvelles publications sont partagées chaque jour sur Facebook, nous mettons à la disposition de nos utilisateurs des outils de signalement simples d’utilisation auprès de chaque contenu visible sur Facebook afin de leur donner les moyens de nous signaler tout élément qui leur parait inapproprié. Et c’est ce qu’ils font.

Lorsqu’un contenu nous est signalé, il est analysé par nos équipes d’experts spécifiquement formés pour cette tâche, et joignables 24h/24, 7j/7. Pour la France, nous disposons d’une équipe francophone. Bien entendu, ces équipes traitent les contenus en lien avec le terrorisme en haute priorité.

Nous supprimons dans les plus brefs délais tout contenu, toute personne ou tout groupe véhiculant des propos haineux, violents, ou faisant l’apologie de groupes ou d’actes terroristes. Par ailleurs, lorsque nous supprimons des contenus ou des comptes pro-terroristes, nos équipes utilisent des outils dédiés pour détecter d’autres comptes associés véhiculant des messages similaires.

Quand des événements tragiques ont lieu dans le monde, comme lors des attentats de Paris, nous mobilisons des ressources supplémentaires afin d’être en mesure d’agir rapidement contre tout contenu violant les règles de notre service. Par exemple, lors des attentats du 13 novembre, nous sommes rapidement entrés en contacts avec les représentants pertinents du gouvernement, les ONGs, les médias afin d’obtenir des informations en temps réel et ainsi être en mesure d’agir rapidement. Beaucoup de nos employés, en particulier nos employés francophones, se sont relayés jour et nuit afin d’être en mesure de répondre à la forte hausse des signalements que notre communauté nous transmettaient dans ces moments difficiles.

Il s’agit d’un travail complexe, et nous sommes conscients qu’il nous arrive de faire des erreurs. Nous sommes donc constamment à la recherche de moyens pour améliorer notre réactivité et précision dans ce type de situation. Nous avons renforcé notre équipe, notamment en ce qui concerne leurs capacités linguistiques, afin d’être en mesure de répondre aux crises dans le monde entier plus rapidement et plus efficacement. Dans le cadre de cet effort, nous avons renforcé nos échanges avec des experts à même de nous conseiller sur ces sujets et suivons de très près les événements qui ont lieu dans le monde. Nous maintenons un dialogue étroit avec les ONG, les partenaires de l'industrie, les universitaires et les représentants du gouvernement sur les meilleures façons de lutter contre le terrorisme et leur propagande sur le Web. Comme l’ont souligné de nombreux gouvernements et universitaires, il est souvent difficile d'identifier de nouveaux groupes ou individus terroristes parce qu’ils évoluent dans un paysage en constante évolution. Nous faisons de notre mieux pour contrôler l’émergence de ces groupes en entretenant des relations étroites avec des experts les plus reconnus de ce domaine et en écoutant attentivement les retours de notre communauté.

A chaque fois que des événements dramatiques se produisent, les gens utilisent Facebook pour partager leurs réactions. Les commentaires postés en provenance du monde entier expriment souvent la frustration et le désespoir, mais aussi l'empathie et le désir d'apporter de l'aide. Notre communauté utilise Facebook pour partager des nouvelles difficiles, mais aussi pour se soutenir mutuellement, exprimer sa solidarité et organiser des actions de soutien pour les victimes ou d'autres personnes vulnérables. Par exemple, après les attaques terroristes de Charlie Hebdo à Paris, nous avons vu une multitude de personnes utiliser Facebook pour organiser des événements "off line" pour témoigner leur solidarité contre le terrorisme. Plus de 7 millions de personnes avaient répondu "oui" pour participer à ces manifestations.

Naturellement, quand les personnes parlent de ce type d'événements pour les dénoncer, les condamner, exprimer leur solidarité ou leur horreur, il peut leur arriver de partager des contenus choquants. Il est révoltant de voir la photo d'un enfant réfugié allongé sans vie sur une plage. Mais cette même image peut mobiliser et inciter les personnes à entreprendre des actions pour protéger d'autres réfugiés. Beaucoup de personnes dans des zones instables sont soumises à des actes horribles qui souvent ne sont pas repris par des caméras. Facebook donne une voix à ces personnes, et nous voulons protéger cette voix.

Si Facebook bloquait l'ensemble des contenus choquants, nous empêcherions les médias, les institutions caritatives et d'autres acteurs encore de témoigner et raconter ce qui se passe dans le monde pour inciter au changement et soutenir les victimes. Pour cette raison, dans certains cas, nous donnons la possibilité à nos utilisateurs de commenter ce type d’événement et de partager certaines photos violentes ou choquantes, à l’unique condition qu’ils expriment clairement une volonté de sensibiliser les gens et de condamner la violence. En tout cas, nous supprimons tout type d'images de violence qui sont postées pour promouvoir ou glorifier la violence elle-même ou ceux qui l'infligent. Notre objectif est de protéger les contenus partagés qui représentent une partie si importante dans la lutte contre le terrorisme, tout en protégeant notre service de tout abus par ceux qui veulent glorifier violence et terreur.

Nous savons que nous faisons aujourd’hui face à un sujet grave, important, qui fait débat et qui nous concerne tous. Notre objectif à Facebook est de garantir la sécurité de tout ceux qui utilisent nos services et Internet légitimement, que ce soit pour partager les contenus qui leur tiennent à cœur ou lutter contre la haine et la violence en partageant des contenus condamnant ces actes barbares, contre l’infime minorité qui glorifient la haine et la violence. Soyez assurés que, face à cet enjeu majeur, nos équipes sont pleinement mobilisées et font tout ce qui est en leur pouvoir pour protéger ce lieu de conversation privilégié contre les propos haineux, violents ou abusifs.

Bien à vous,
Monika Bickert
Directrice mondiale de la politique de gestion des contenus de Facebook