Facebook avec de nouvelles politiques pour supprimer le contenu perturbateur

Facebook

(5.5)
06.02.2026

Facebook procède à une série de changements liés à la censure des publications sur les réseaux sociaux. Ils aideront à éliminer les éléments suspects

Les dernières nouvelles sur Facebook affirment que le réseau social paiera à ses modérateurs un total de 52 millions de dollars de dommages et intérêts. L'entreprise a pris la décision de fournir cette somme d'argent à ses employés qui se sont vu confier la difficile tâche de supprimer les contenus violents et préjudiciables. Le matériel a été téléchargé à travers des photos et des vidéos publiées sous forme de publications par les utilisateurs. L'affaire a été portée devant la justice californienne aux États-Unis.

Contexte d'un événement similaire

La tension entre Facebook et ses modérateurs a un précédent en 2018 dans une affaire d'employés d'Accentura contre Facebook. Accenture a déclaré que le réseau social ne protégeait pas ses employés, qui étaient systématiquement soumis à des matériaux choquants avec violence, fornication, décapitation, terreur, cruauté envers les animaux, fusillades, etc. En raison de la nécessité d'une thérapie pour certains de ses travailleurs, un règlement de 1 000 $ a été conclu pour chaque participant à la poursuite. Ceux qui pouvaient prouver des résultats médicaux traumatisants en raison de leurs engagements professionnels avaient droit à un traitement gratuit et pouvaient poursuivre jusqu'à 50 000 $.
L'entreprise a toujours exprimé sa gratitude aux gens pour la recherche et l'élimination des matières dangereuses. L'entreprise a déclaré à plusieurs reprises qu'elle s'était engagée à leur fournir un soutien supplémentaire.
Les travailleurs du monde entier partagent les mêmes plaintes que leurs homologues américains. Chris Gray, qui travaillait pour la société en Irlande, parle d'un cas issu de son expérience personnelle. Gray a été forcé de voir des images dégoûtantes d'exécutions, de suicides de masse, de publications racistes et d'autres tortures de partisans de l'État islamique. Les problèmes qui découlent de cette vision systématique de ces matériaux conduisent inévitablement à un stress post-traumatique. Il dit que le traumatisme peut rester non identifié pendant longtemps, mais au fil du temps, il peut détecter la présence d'irritabilité, de sensibilité émotionnelle et de comportement instable.

Renforcement des contrôles

De son côté, Facebook développe de plus en plus de pratiques innovantes pour identifier les contenus désagréables. À l'aide de programmes d'intelligence artificielle formés, vous pouvez trouver des textes et des images graphiques qui ne sont pas conformes aux politiques de Facebook. Début 2020, la société a intensifié l'élimination de la violence et des messages de propagande haineuse. Plusieurs groupes sur le réseau social ont été interdits en raison d'appels à l'émeute.
À titre de comparaison, rien qu'au premier trimestre de 2020, environ 4,7 millions de postes ont été supprimés, contre 1,6 million au cours de la même période en 2019. Le PDG Mark Zuckerberg estime que l'approche avec des étiquettes d'avertissement pour Les matériaux sensibles ont également connu un grand succès. Cette décision a permis aux utilisateurs de décider quel contenu regarder et lequel ne pas regarder.
Plus tôt ce mois-ci, la nouvelle de Facebook a été annoncée concernant la création d'un conseil de surveillance et certains des noms qui le comprendraient. L'équipe comprend des scientifiques, des journalistes, des écrivains et même un lauréat du prix Nobel. L'objectif est qu'ils prennent des définitions sur le contenu qui est téléchargé sur le site et peuvent causer des problèmes. Le PDG de Facebook a déclaré que de nombreuses plaintes concernant des contenus nuisibles les avaient amenés à prendre la décision. Une fois le Conseil formé, il fonctionnera indépendamment de l'entreprise et aura le pouvoir d'arbitrage suprême sur le contenu douteux.
La société américaine informe ses utilisateurs qu'une plus grande transparence vise à éliminer les soupçons d'ingérence politique sur Facebook. Dans cette optique, le réseau social le plus important du monde se battra pour éviter les interférences électorales et la désinformation massive. Facebook a également assuré que la sélection des vingt premiers membres tenait compte de leur expérience professionnelle et de leur formation. Le Conseil de surveillance comprend d'anciens politiciens, juges et éditeurs du monde entier, y compris la Grande-Bretagne, la Hongrie, Israël, le Pakistan, la Colombie et l'Afrique. L'équipe parle plus de 29 langues, ce qui montre la recherche de la pluralité du plan.
La Commission n'a pas l'intention de traiter les cas où une décision a déjà été prise et la société a supprimé le contenu à sa discrétion. Jusqu'à la formation de toute l'équipe, le travail sera effectué par les vingt premiers membres, qui pourront examiner les cas et identifier les points de vue soulevés. Les membres restants de ce panel seront annoncés l'année prochaine.

Facebook lance une nouvelle application de jeu

Facebook lance une nouvelle application de jeu

Facebook a annoncé le départ de Facebook Gaming. L'application est déjà sur Google Play pour les utilisateurs d'Android et sera disponible à l'avenir pour iOS
Facebook avec de nouvelles politiques pour supprimer le contenu perturbateur

Facebook avec de nouvelles politiques pour supprimer le contenu perturbateur

Facebook procède à une série de changements liés à la censure des publications sur les réseaux sociaux. Ils aideront à éliminer les éléments suspects
Facebook lance la boutique Facebook

Facebook lance la boutique Facebook

Le réseau social le plus utilisé crée une option pour acheter et vendre des produits. Avec l'essor des achats en ligne. Trouvez une intégration avec Instagram et WhatsApp


Riguardo a noi | Termes | Contact | frgool.com Gowa internet mobile SL VAT ID: B87495891. Tous les droits sont réservés. | Voir les informations
Can not open /usr/share/GeoIP/GeoIP.dat