Privacy Hub
La prise de décision de la modération
Comment prenons-nous des décisions de modération ?
Parce que nous nous soucions de ta sécurité et de ta confidentialité, nous aimerions être transparents sur la façon dont nous prenons les décisions de modération et sur la façon dont nous appliquons nos règles de la communauté.
Une « décision individuelle automatisée » désigne une décision qui n'est pas prise par un être humain mais par un algorithme et qui peut avoir un impact sur les intérêts, les droits ou les libertés d'un individu.
Notre processus de modération est basé sur une combinaison de modérateurs humains et de technologie d'IA. Nous pouvons supprimer automatiquement certains contenus inacceptables pour empêcher les utilisateurs d'être exposés à des comportements dangereux ou inappropriés. Par exemple, une vidéo en direct qui montre de la violence ou de la nudité sera automatiquement fermée si notre algorithme la détecte. De même, nous pouvons également filtrer automatiquement les contenus inappropriés ou illégaux envoyés dans le chat.
Une fois que nous détectons un contenu que nous soupçonnons d'enfreindre nos règles de la communauté ou les lois applicables, nous générons un rapport interne. Ce rapport sera transmis à nos modérateurs humains qui l'examineront et prendront les mesures appropriées. Le compte signalé est signalé pendant la durée de l'enquête.
Les modérateurs revoient également tous les signalements faits par les utilisateurs eux-mêmes.
Nos outils de détection et de filtrage automatisés restent sous la supervision de nos équipes et modérateurs. De cette façon, nous limitons les erreurs (comme les faux positifs) et les décisions de modération injustes.
Si tu penses avoir été modéré par erreur, contacte le support ici.