Estudo explica bem por que a moderação do conteúdo do Facebook falha, portanto 06/06/2020

Estudo explica bem por que a moderação do conteúdo do Facebook falha, portanto 06/06/2020

O Facebook precisa prestar mais atenção à sua estratégia de moderação de conteúdo e parar de terceirizar o serviço. Aqui está o que um relatório da Universidade de Nova York (NYU) conclui: lançado neste fim de semana.

Segundo o estudo, o setor deve funcionar dentro da empresa, recebendo os recursos necessários e possuindo equipes em países que passam por delicadas situações sócio-políticas. Somente dessa maneira é possível combater informações errôneas, notícias falsas e outros conteúdos nocivos que circulam na plataforma.

Algumas das ações sugeridas no relatório são: mais moderadores e melhores condições de trabalho, incluindo assistência física e mental, para moderadores, que lidam com informações traumáticas e perturbadoras todos os dias.

Moderação insuficiente

O estudo estima que os usuários e o sistema de inteligência artificial relatam mais de 3 milhões de mensagens suspeitas diariamente. A empresa reporta uma taxa de falha de moderação de 10%, resultando em 300.000 conteúdo moderado incorretamente todos os dias.

“Esses números parecem substanciais, mas, analisando o volume do que está sendo distribuído diariamente em sites e aplicativos, são extremamente inadequados”, disse o autor do estudo, Paul Barrett.

O Facebook fez parceria com 60 organizações de notícias para implementar a “verificação de fatos”, mas as demandas enviadas a esses grupos também estão muito além da capacidade de verificação.

Para enfatizar o papel central dos moderadores, Barrett propõe o seguinte cenário:

Imagine como seriam as mídias sociais sem que ninguém removesse as postagens mais pesadas. Facebook, Twitter e YouTube (do Google) seriam inundados não apenas por spam, mas também pelo conteúdo de intimidação, neo-nazismo, terrorismo e pedofilia. Diante desse caos, a maioria dos usuários abandonaria as plataformas, seguidas pelos anunciantes.

Apesar de sua importância, os moderadores foram marginalizados, diz o relatório. Como eles também estão fisicamente distantes, o Facebook geralmente não reconhece a seriedade do conteúdo analisado.

Exemplos disso Myanmar, onde forças pró-governo usaram a plataforma para espalhar propaganda genocida; e a eleição dos EUA em 2016, quando grupos russos espalham informações erradas e odeiam mensagens para influenciar o público.

Mas por que isso acontece? Basicamente, gastar menos. Os moderadores terceirizados que trabalham em países subdesenvolvidos custam menos que os funcionários em período integral no Vale do Silício, com um escritório físico e benefícios. Barrett, que entrevistou vários ex-moderadores durante o estudo, acredita que as pessoas são a chave para o sucesso da moderação.

As soluções

Sugira oito etapas para resolver o problema:

  • Trazer o setor de moderação para a empresa, com uma melhor remuneração.
  • Dobrar o número de moderadores de conteúdo
  • Nomeie um executivo qualificado para supervisionar o serviço.
  • Invista mais moderadamente em “países de risco”, principalmente na Ásia e na África, com equipes que falam o idioma local
  • Prestar cuidados médicos no local de trabalho.
  • Patrocinar pesquisas acadêmicas sobre os riscos à saúde da moderação de conteúdo.
  • Apoiar os regulamentos governamentais sobre conteúdo nocivo
  • Expanda o volume de verificação de fatos para combater desinformação

Temporariamente, em resposta a notícias falsas e golpes relacionados ao coronavírus, o CEO Mark Zuckerberg moderou o conteúdo de algumas categorias sensíveis no Facebook.

Durante o período do escritório em casa, quando ele precisava confiar mais em inteligência artificial, a empresa também reconheceu as limitações de algoritmos que apontam para conteúdo ofensivo.

Um longo caminho

A reputação do Facebook vem se degradando nos últimos anos. Essa recomendação chega em um momento delicado, depois que os tweets do presidente dos Estados Unidos Donald Trump, incitando a violência policial contra manifestantes pela morte de George Floyd, foram marcados como potencialmente perigosos.

Problemas como esse são persistentes na empresa. Barrett disse que a moderação é fundamental para manter o Facebook, mas foi relegado a um papel menor, com prestadores de serviços mal pagos espalhados por mais de 20 locais.

Mas todas as principais plataformas de mídia social sofrem o mesmo mal. O Facebook possui cerca de 15.000 moderadores de conteúdo, a maioria terceirizada; YouTube / Google tem 10.000; e o Twitter tem 1.500; De acordo com o relatório.

You May Also Like

About the Author: Adriana Costa Esteves

"Estudioso incurável da TV. Solucionador profissional de problemas. Desbravador de bacon. Não foi possível digitar com luvas de boxe."

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *