
Uma nova polêmica sobre a remoção de páginas populares no Facebook nesta
semana reacendeu o debate sobre como a empresa avalia o conteúdo
denunciado na rede social.
O estopim da controvérsia foi a desativação, no dia 1º de novembro, da
página "Orgulho de ser hétero" – que reunia cerca de 2 milhões de
pessoas. A decisão foi comemorada em páginas e comunidades de ativismo
feminista e LGBT, que frequentemente a denunciavam pelo que dizem ser
discurso de ódio.
A partir daí, frequentadores da "Orgulho de ser hétero" teriam se
organizado para orquestrar a remoção de páginas ligadas a estes grupos.
Mensagens nas novas versões da página pediam apoio para coordenar
denúncias a algumas delas.
No mesmo dia, páginas como "Feminismo sem demagogia", "Cartazes e
tirinhas LGBT" e "Moça, você é machista" também saíram do ar, assim como
a da vlogueira Julia Tolezano, a Jout Jout, cujos vídeos sobre assédio
contra mulheres fazem sucesso nas redes sociais brasileiras.
A desativação da página de Jout Jout
causou indignação dos fãs e chamou a atenção da mídia. A prefeitura de
Niterói, cidade natal da vlogueira, chegou a se manifestar em seu perfil
oficial na rede.
Na noite de quarta-feira (4), a página de Tolezano voltou ao ar,
mas, até o fechamento desta reportagem, nenhuma das outras havia sido
restaurada – algumas delas, entretanto, já têm novas versões.
Procurado pela BBC Brasil, o Facebook não confirmou se havia conexão
entre a desativação das páginas e a suposta ação organizada de ativistas
de ambos os lados. Por meio de sua assessoria de imprensa, a empresa afirmou que houve
"erro de avaliação” na decisão de remover a página de Juliana Tolezano.
"Após tomarmos conhecimento de algumas situações envolvendo páginas na
plataforma, fizemos uma revisão detalhada e detectamos que a página da
Jout Jout Prazer foi removida por um erro de avaliação de uma denúncia. A
página já foi restaurada e nos desculpamos pelas inconveniências
causadas."
Em outubro, a BBC Brasil conversou com a representante de políticas de
produto do Facebook, a advogada Monica Bickert, a respeito do
funcionamento e das polêmicas que cercam a retirada de conteúdo do ar.
Bickert será a representante da empresa no festival americano de
cultura e tecnologia South By Southwest, um dos mais importantes do
mundo, em um painel que tratará de assédio online. Durante a conversa, ela disse que a "informação limitada” sobre o
contexto de publicações denunciadas é um desafio da empresa e admitiu
que nem sempre os revisores de conteúdos do Brasil são brasileiros ou
falam português.
No entanto, Bickert afirmou também que o Facebook tenta direcionar
conteúdo a revisores que dominem o idioma quando necessário e
compartilhar informações que podem ajudar a contextualizá-lo. Confira abaixo algumas das explicações de Bickert sobre como o Facebook decide o que deve sair do ar:
A necessidade de denunciar
"Qualquer conteúdo no Facebook pode ser denunciado. Isso inclui perfis, páginas, grupos, posts, comentários em posts, fotos, vídeos, qualquer coisa. O mais comum é ir para o canto superior direito do conteúdo, clicar em 'denunciar' e responder algumas perguntas, e isso chega à nossa equipe.
"Qualquer conteúdo no Facebook pode ser denunciado. Isso inclui perfis, páginas, grupos, posts, comentários em posts, fotos, vídeos, qualquer coisa. O mais comum é ir para o canto superior direito do conteúdo, clicar em 'denunciar' e responder algumas perguntas, e isso chega à nossa equipe.
Quero enfatizar que dependemos muito de as pessoas denunciarem as
coisas para nós. Isso nos ajuda a garantir que as coisas que estão sendo
denunciadas realmente estão tendo um impacto negativo na comunidade.
Não saímos por aí removendo conteúdo. As pessoas reclamam para nós e aí
revisamos.
Temos sistemas de segurança para detectar determinadas coisas como spam
e imagens de pornografia infantil, então nem tudo necessariamente
precisa ser denunciado para ser visto. Mas discurso de ódio e assédio
precisam ser denunciados. Não estamos ativamente buscando por isso."
Basta uma vez
"Quero derrubar o mito de que é preciso denunciar uma página muitas vezes para derrubá-la. Basta uma denúncia. Se alguém denuncia algum tipo de conteúdo, isso vem para nós e ele é revisado. Se alguém denuncia de novo, ele é revisado de novo, mas segundo os mesmos padrões. Denunciar algo 200 vezes não muda a decisão que foi tomada.
"Quero derrubar o mito de que é preciso denunciar uma página muitas vezes para derrubá-la. Basta uma denúncia. Se alguém denuncia algum tipo de conteúdo, isso vem para nós e ele é revisado. Se alguém denuncia de novo, ele é revisado de novo, mas segundo os mesmos padrões. Denunciar algo 200 vezes não muda a decisão que foi tomada.
Temos automação para fazer a triagem das denúncias para revisão. Às
vezes mais de dez pessoas denunciam um tipo de conteúdo. Em vez de
colocar 10 revisores para olhar aquele conteúdo logo, nós consolidamos
as denúncias com um processo automático de triagem.
Mas, na maior parte das vezes, as denúncias estão sendo revisadas por
pessoas reais: discurso de ódio, ameaça de violência, automutilação. Os
revisores cometerão erros, mas são pessoas de verdade."
Quem avalia o conteúdo? E como?
"Há uma mistura de empregados do Facebook e terceiros contratados para fazer triagem de denúncias e revisões iniciais. Nossa equipe de revisores é bastante internacional. Eles falam diversas dezenas de línguas, incluindo português brasileiro. Também temos essa equipe espalhada para garantir que o conteúdo seja revisado sete dias por semana, 24 horas por dia.
"Há uma mistura de empregados do Facebook e terceiros contratados para fazer triagem de denúncias e revisões iniciais. Nossa equipe de revisores é bastante internacional. Eles falam diversas dezenas de línguas, incluindo português brasileiro. Também temos essa equipe espalhada para garantir que o conteúdo seja revisado sete dias por semana, 24 horas por dia.
Não é um sistema perfeito, mas tentamos que, para cada conteúdo
denunciado em cada língua, tenhamos alguém com a experiência apropriada
para revisá-lo imediatamente. A principal maneira pela qual garantimos que as decisões dos revisores
sejam consistentes é dando a eles instruções concretas. Se temos a
denúncia de uma ameaça de violência, damos instruções sobre como eles
podem avaliar a credibilidade daquele discurso. Há algo na linguagem que
nos faz acreditar que isso é algo que pode realmente levar a um ato de
violência contra essa pessoa?
Porque claro, as pessoas usam palavras violentas o tempo todo, mas não
queremos interferir com discurso que é de humor, satírico ou político,
mas que não é uma ameaça séria. Os revisores não têm liberdade para impor suas próprias opiniões na
avaliação, precisam seguir as instruções que damos a eles. Semanalmente
revisamos novamente parte do conteúdo que eles revisaram e vemos como as
decisões foram tomadas.
Então se nós cometemos um erro, tentamos consertar este erro. E
recebemos milhões de denúncias. Neste volume, erros definitivamente
acontecem todas as semanas. Parte do processo é fazer auditorias e
mostrar aos revisores onde o erro foi cometido."
O 'ponto cego' das denúncias
"Se alguém denuncia uma página para nós, o revisor vai olhar se esta página, como um todo, viola nossos padrões. Ele vai analisar coisas como o nome da página, a imagem no topo da página, a seção "sobre” e parte do conteúdo da página. No entanto, algumas páginas têm 300 novas publicações por dia. O revisor analisará um número bem limitado desse conteúdo. Se nessa página há uma publicação que viola nossos padrões e alguém denuncia a página, mas não esta publicação específica, pode ser que nosso revisor não a veja. Da mesma forma, se uma publicação é denunciada, o revisor pode avaliá-la e removê-la, mas pode não ver o contexto mais amplo da página, que também pode violar os padrões."
"Se alguém denuncia uma página para nós, o revisor vai olhar se esta página, como um todo, viola nossos padrões. Ele vai analisar coisas como o nome da página, a imagem no topo da página, a seção "sobre” e parte do conteúdo da página. No entanto, algumas páginas têm 300 novas publicações por dia. O revisor analisará um número bem limitado desse conteúdo. Se nessa página há uma publicação que viola nossos padrões e alguém denuncia a página, mas não esta publicação específica, pode ser que nosso revisor não a veja. Da mesma forma, se uma publicação é denunciada, o revisor pode avaliá-la e removê-la, mas pode não ver o contexto mais amplo da página, que também pode violar os padrões."
O dilema do contexto
"Para nossos revisores (o contexto) é um desafio, muitas vezes. Eles estão diante de um computador vendo uma imagem, mas não sabem quem são essas pessoas na vida real, não sabem o que está acontecendo, então têm que fazer um julgamento com base em contexto muito limitado.
"Para nossos revisores (o contexto) é um desafio, muitas vezes. Eles estão diante de um computador vendo uma imagem, mas não sabem quem são essas pessoas na vida real, não sabem o que está acontecendo, então têm que fazer um julgamento com base em contexto muito limitado.
Eles têm que fazer o melhor com o contexto que têm. Outra coisa que
podem fazer é pedir que alguém da empresa dê uma olhada no conteúdo de
vez em quando. Isso acontece. Eu mesma já fiz isso. Tentamos tomar a
melhor decisão que podemos.
Quando os revisores veem uma imagem de nudez de uma pessoa real, por
exemplo, eles sabem que não permitimos fotos de genitais e, em alguns
casos, não permitimos fotos de mulheres de topless. Fotos de amamentação
e do corpo pós-cirurgia são permitidas, mas topless em geral não é
permitido.
Parte da razão para isso é que precisamos ter certeza que imagens como
esta estão sendo compartilhadas com o consentimento de quem aparece
nelas, garantir que não é 'pornografia de vingança'. Erramos para o lado
da segurança. Os revisores não conseguem, necessariamente, saber o
contexto em que as fotos estão.
Há momentos em diferentes países em que as discussões podem ficar
agressivas e começamos a ver mais coisas como discurso de ódio e
bullying de indivíduos. Se sabemos de algo que pode ser um problema em
algum país, tentamos garantir que nossos revisores estejam cientes
disso. Isso não muda os padrões que aplicamos, mas é útil ter esta
informação.
Mantemos os revisores informados sobre algumas das palavras que estão
sendo usadas em discursos de ódio no Brasil, por exemplo, e sobre quais
são algumas das tendências de como as pessoas podem atacar grupos ou
indivíduos. Quando o idioma é um problema, direcionamos o conteúdo para
funcionários que falam a língua."
Discurso de ódio x liberdade de expressão
"Estamos constantemente buscando novas formas de refinar nossas políticas e ver se há maneiras de permitir mais liberdade de expressão enquanto garantimos que as pessoas estão seguras, mas isso é um dos desafios que enfrentamos. Um exemplo é o discurso de ódio. Não há uma única definição disso no mundo, então não podemos simplesmente dizer a nossos revisores: 'se for discurso de ódio, removam'. Decidimos focar nossa definição de discurso de ódio no ataque a uma pessoa ou grupo de pessoas.
"Estamos constantemente buscando novas formas de refinar nossas políticas e ver se há maneiras de permitir mais liberdade de expressão enquanto garantimos que as pessoas estão seguras, mas isso é um dos desafios que enfrentamos. Um exemplo é o discurso de ódio. Não há uma única definição disso no mundo, então não podemos simplesmente dizer a nossos revisores: 'se for discurso de ódio, removam'. Decidimos focar nossa definição de discurso de ódio no ataque a uma pessoa ou grupo de pessoas.
A orientação que damos a eles é: se for um ataque direito a pessoas,
baseado em característica como raça, religião, nacionalidade, identidade
de gênero, nós removeremos. Mas se é uma crítica a um país ou
instituição, por exemplo, deixamos essa crítica como parte do debate
público.
O foco para nós é: se há um ataque a uma pessoa ou grupo de pessoas por
causa de sua orientação sexual, por exemplo, não importa quem diz, se é
um político ou outra pessoa. Se alguém ataca diretamente pessoas por
ser gay, diz que são 'pessoas ruins', por exemplo, isso viola nossas
políticas e pode ser removido.
Mas se alguém critica um político por seus posicionamentos sobre um
assunto no Congresso, ou estão criticando uma instituição, como um grupo
LGBT, permitimos esse tipo de discurso. Garantir que as pessoas saibam que estão seguras e não sofrerão ataques
no Facebook é uma parte importante de dar voz a quem poderia se sentir
silenciado e impedido de participar de uma discussão. Se as pessoas estão discutindo leis, assuntos políticos ou
instituições, queremos possibilitar essas discussões. E se alguém está
dizendo algo ignorante, o Facebook dá uma ótima oportunidade para que
outras pessoas se envolvam na discussão para combater a ignorância e a
intolerância."
Assédio
"Temos uma política contra assédio online que inclui, entre outros comportamentos, tentativas repetidas de deixar alguém desconfortável ou de assediar alguém. Analisamos coisas como: quem está por trás da conta? Se é alguém que tem um registro de múltiplas instâncias de discurso de ódio, em determinado momento haverá consequências sérias. Pelo menos serão proibidos de postar por algum tempo.
"Temos uma política contra assédio online que inclui, entre outros comportamentos, tentativas repetidas de deixar alguém desconfortável ou de assediar alguém. Analisamos coisas como: quem está por trás da conta? Se é alguém que tem um registro de múltiplas instâncias de discurso de ódio, em determinado momento haverá consequências sérias. Pelo menos serão proibidos de postar por algum tempo.
Também olhamos para coisas como a autenticidade das contas, se elas são
verdadeiras, se foram criadas diversas contas falsas para coordenar
algum mau comportamento. Às vezes conseguimos detectar isso. Por isso
exigimos que as pessoas usem suas identidades verdadeiras no site. Dá
trabalho pôr isso em prática, mas estamos tentando acertar. Se alguém é denunciado constantemente, isso fica registrado e é
considerado contexto relevante para a análise de um conteúdo postado por
essa pessoa. Quando se trata de violência sexual, temos padrões muito rigorosos.
Mesmo 'piadas' sobre estupro podem ser removidas de acordo com nossos
padrões. Algumas pessoas podem achar isso engraçado, mas não aceitamos
isso."
http://g1.globo.com/tecnologia/noticia/2015/11/guerra-de-paginas-traz-debate-sobre-como-facebook-decide-o-que-sai-do-ar.html
Comentários
Postar um comentário