18-03-2020 6:38 am Published by Nederland.ai Leave your thoughts

Um dia após o Facebook anunciar que se basearia mais na moderação de conteúdo orientado por inteligência artificial, alguns usuários reclamam que a plataforma comete erros e bloqueia uma enorme quantidade de mensagens e links legítimos, incluindo artigos de notícias com artigos sobre a pandemia de coronavírus , destacando-os como spam.

Enquanto publicam, os usuários parecem estar recebendo uma mensagem de que seu conteúdo – às vezes apenas um link para um artigo – viola os padrões da comunidade do Facebook. “Estamos trabalhando duro para limitar a disseminação de spam, pois não queremos permitir que o conteúdo projetado induza em erro ou tente induzir os usuários a aumentar a audiência”, dizia as regras da plataforma. .

O problema também é porque as plataformas de mídia social continuam a combater a desinformação relacionada ao Covid-19 . Nas mídias sociais, alguns agora estão direcionando a noção de que a decisão do Facebook de enviar para casa seus moderadores de conteúdo contratados pode ser a raiz do problema.

O Facebook rebate essa idéia e Guy Rosen, vice-presidente de integridade da empresa, twittou que “isso é um bug em um sistema anti-spam, não relacionado a mudanças na nossa equipe de moderação de conteúdo”. disse que a plataforma está recuperando as mensagens.

Recode contatou o Facebook para comentar e atualizaremos este post se ouvirmos alguma coisa.

O problema no Facebook nos lembra que qualquer tipo de sistema automatizado ainda pode atrapalhar, e esse fato pode se tornar mais aparente à medida que mais empresas, incluindo o Twitter e o YouTube, dependem da moderação automatizada do conteúdo durante a pandemia de coronavírus. As empresas dizem que fazem isso para encontrar distância social, porque muitos de seus funcionários são forçados a trabalhar em casa. Nesta semana, eles também avisaram aos usuários que, devido ao aumento da moderação automática, mais mensagens poderiam ser excluídas acidentalmente.

Em uma postagem de blog na segunda-feira, o YouTube disse aos criadores que a plataforma recorrerá ao aprendizado de máquina para ajudar com “parte do trabalho normalmente feito pelos revisores”. A empresa alertou que a transição significa que determinado conteúdo será removido sem julgamento humano e que usuários e colaboradores da plataforma poderão ver vídeos removidos do site que não violam as políticas do YouTube.

A empresa também alertou que “o conteúdo não classificado pode não estar disponível na pesquisa, na página inicial ou nas recomendações”.

Da mesma forma, o Twitter disse aos usuários que a plataforma dependerá cada vez mais da automação e do aprendizado de máquina para remover “conteúdo ofensivo e manipulado”. Ainda assim, a empresa reconheceu que a inteligência artificial não seria um substituto para os moderadores humanos.

“Queremos ser claros: ao trabalharmos para garantir que nossos sistemas sejam consistentes, às vezes eles podem perder o contexto que nossas equipes trazem, e isso pode nos levar a cometer erros”, afirmou a empresa em um post no blog .

Para compensar possíveis erros, o Twitter disse que não suspenderá permanentemente as contas “com base apenas em nossos sistemas automatizados de aplicação”. O YouTube também faz ajustes. “Não atingiremos esse conteúdo, exceto nos casos em que tenhamos muita confiança de que seja violento”, disse a empresa, acrescentando que os criadores teriam a oportunidade de recorrer dessas decisões.

Enquanto isso, o Facebook diz que está trabalhando com seus parceiros para enviar para casa os moderadores de conteúdo e pagá-los. A empresa também está investigando a revisão temporária de conteúdo remoto para alguns de seus moderadores.

“Não esperamos que isso afete as pessoas que usam nossa plataforma de maneira perceptível”, afirmou a empresa em comunicado na segunda-feira . “Dito isto, pode haver algumas limitações a essa abordagem e podemos observar tempos de resposta um pouco mais longos e, portanto, cometer mais erros”.

A mudança para os moderadores da IA ​​não é surpresa. Por anos, as empresas de tecnologia têm empurrado ferramentas automatizadas como uma maneira de complementar seus esforços para combater o conteúdo ofensivo e perigoso que pode gerar em suas plataformas. Embora a IA possa ajudar a acelerar a moderação do conteúdo, a tecnologia também pode se esforçar para entender o contexto social de postagens ou vídeos, fazendo julgamentos imprecisos sobre seu significado. De fato, a pesquisa mostrou que algoritmos que detectam o racismo podem ser tendenciosos contra os negros , e a tecnologia tem sido amplamente criticada por ser vulnerável à tomada de decisão discriminatória .

Normalmente, as deficiências da IA ​​nos levaram a confiar em moderadores humanos que podem entender melhor as nuances. No entanto, os revisores de conteúdo humano também não são, de maneira alguma, uma solução perfeita, especialmente porque precisam trabalhar longos dias para analisar palavras e imagens traumáticas, violentas e ofensivas. Suas condições de trabalho foram revisadas recentemente.

Porém, na era da pandemia de coronavírus, fazer com que os revisores trabalhem lado a lado em um escritório pode ser perigoso, além de aumentar o risco de o vírus se espalhar ainda mais para o público em geral. Lembre-se de que essas empresas relutam em permitir que os revisores de conteúdo trabalhem em casa, pois têm acesso a muitas informações pessoais do usuário, sem mencionar conteúdo muito sensível.

Em meio à nova pandemia de coronavírus, a classificação de conteúdo é apenas outra maneira de recorrer à AI para obter ajuda . Como as pessoas ficam em ambientes fechados e desejam mover suas interações pessoais on-line, sem dúvida daremos uma olhada rara no desempenho dessa tecnologia, à medida que ganha mais controle sobre o que vemos nas plataformas sociais mais populares do mundo. Sem a influência de revisores humanos a que estamos acostumados, isso pode ser um boom para os robôs

Deixe uma resposta

O seu endereço de email não será publicado. Campos obrigatórios marcados com *

20 + 8 =