Os robôs de moderação do YouTube punem vídeos marcados como 'gay' ou 'lésbica', constata um estudo

[ad_1]

  

Uma nova investigação de uma coalizão de criadores e pesquisadores do YouTube acusa o YouTube de confiar em um sistema de "fanáticos por robôs" para determinar se determinado conteúdo deve ser desmonetizado, especificamente vídeos LGBTQ.

A investigação foi conduzida por três pessoas: Sealow o CEO da empresa de pesquisa Ocelot AI ; Andrew, criador do YouTube, que opera o canal YouTube Analyzed ; e Een do popular canal de comentários e investigação do YouTube, Nerd City.

A investigação foi estimulada pelo interesse de ver quais palavras foram automaticamente desmonetizadas pelos bots de aprendizado de máquina do YouTube, à medida que aumentavam as preocupações com a transparência entre executivos e YouTubers na comunidade de criadores. Andrew testou manualmente 15.300 palavras entre 2 de junho e 5 de julho de 2019, usando os termos mais comuns nos dicionário Webster, UrbanDictionary e resultados de pesquisa do Google. A segunda rodada de experimentos foi realizada entre 6 e 21 de julho e incluiu 14.000 palavras que foram automatizadas usando a API de dados do YouTube por Sealow. Een colaborou com suas próprias fontes e ajudou a produzir o vídeo principal.

Andrew, Sealow e Een divulgaram seus vídeos individuais sobre as descobertas, juntamente com uma planilha do Excel que lista todas as palavras que elas usaram e uma análise em papel branco de suas descobertas. Essas palavras foram usadas para testar o que os bots do YouTube consideram automaticamente inapropriados para monetização. A equipe descobriu que se palavras como "gay" e "lésbica" mudavam para palavras aleatórias como "feliz", o "status do vídeo mudava para amigável ao anunciante" toda vez, diz Een em seu vídeo.

Atingido por The Verge um porta-voz do YouTube negou a existência de uma lista de palavras LGBTQ que desencadeiam a desmonetização, apesar das descobertas da investigação. O porta-voz acrescentou que a empresa está "constantemente avaliando nossos sistemas para ajudar a garantir que eles estejam refletindo nossas políticas sem preconceitos injustos".

" Estamos orgulhosos das incríveis vozes LGBTQ + em nossa plataforma e levamos preocupações como essas muito a sério", disse o porta-voz. “Usamos o aprendizado de máquina para avaliar o conteúdo em relação às nossas diretrizes para anunciantes . Às vezes, nossos sistemas entendem errado, e é por isso que incentivamos os criadores a apelar. Recursos bem-sucedidos garantem que nossos sistemas sejam atualizados para melhorar cada vez mais. ”

Os sistemas do YouTube para desmonetização automatizada são baseados em muitos sinais, mas não há uma lista específica incorporada ao sistema de aprendizado de máquina da empresa, de acordo com a empresa. A empresa confirmou que testa amostras de vídeos de criadores de LGBTQ sempre que novos classificadores de monetização são introduzidos para garantir que os vídeos LGBTQ não sejam mais propensos a serem desmonetizados. Mas a empresa alega que o atual sistema de revisões em vigor, usado por moderadores humanos que supervisionam os recursos, reflete adequadamente as políticas da empresa em torno dos termos LGBTQ.

Mas as descobertas dos pesquisadores sugerem que existe um viés significativo no trabalho antes que os moderadores humanos se envolvam. Sua pesquisa levou-os a concluir que os robôs de aprendizado de máquina do YouTube usados ​​especificamente para examinar se um vídeo está disponível para monetizar usam um "nível de confiança oculto que varia de 0 a 1." Aqueles mais próximos de zero são aprovados para monetização, enquanto outros mais próximos de um é desmonetizado. Efetivamente, se um vídeo for considerado acima do limite do YouTube, é imediatamente desmonetizado e precisa ser revisado manualmente.

"Os classificadores do YouTube foram treinados para tentar prever a probabilidade de desmonetização de um vídeo com base nos dados do treinamento (com base nos resultados anteriores da revisão manual)", disse Sealow The Verge. “Portanto, uma pontuação de 1 é 100% confiante de que deve ser desmonetizada, enquanto 0,5 é de 50% e assim por diante. O YouTube teve que definir um certo limite aceitável – digamos '35% de confiança', onde qualquer vídeo acima da pontuação de 0,35 será desmonetizado e exigirá uma revisão manual antes de ser aprovado para monetização. ”

Na análise de suas descobertas, Sealow afirma que “a lista é melhor interpretada como uma lista de palavras-chave carregadas negativamente, pois certas palavras são consideradas mais severas que outras.”

Todos os vídeos enviados para fins de teste eram executados entre um e dois segundos e "não apresentavam conteúdo visual ou de áudio que pudesse desencadear desmonetização", diz o relatório. O período de espera para aprovação ou negação da monetização foi de cerca de duas horas. Palavras associadas à comunidade LGBTQ ou termos usados ​​em comentários como "democrata" ou "liberal" são "provavelmente cobrados negativamente devido ao seu uso em comentários políticos que geralmente são considerados não amigáveis ​​para anunciantes", diz o relatório.

"Os mesmos vídeos são monetizados sem a terminologia LGBTQ", diz Sealow em seu vídeo. “Não se trata de desmonetizar as personalidades LGBTQ por algo pelo qual todos os outros seriam desmonetizados, como sexo ou tragédia. Essa é a terminologia LGBTQ como 'gay' e 'lésbica', sendo a única razão pela qual um vídeo é desmonetizado, apesar do contexto. ”

As alegações feitas no vídeo não são novas, mas o estudo é o mais extenso. Os executivos do YouTube, incluindo a CEO Susan Wojcicki e o diretor de produtos Neal Mohan, falaram sobre preocupações de que certas palavras-chave em metadados e títulos levem à desmonetização automática. É uma preocupação especialmente predominante na comunidade LGBTQ. O YouTube negou categoricamente a existência de políticas "que dizem 'Se você colocar certas palavras em um título que será desmonetizado' '", como disse Wojcicki ao YouTuber Alfie Deyes em uma longa entrevista em agosto.

"Trabalhamos incrivelmente para garantir que, quando nossas máquinas aprendam algo – porque muitas de nossas decisões são tomadas algoritmicamente – que nossas máquinas sejam justas", acrescentou Wojcicki. "Não deveria haver [any automatic demonetization]".

Isso não impediu que os criadores de conteúdo usassem linguagem secreta em seus vídeos e incluíssem o Google Documents em sua seção de comentários para se comunicar com os espectadores. YouTuber Petty Paige exibirá a famosa imagem do cifrão amarelo – um sinal que tanto os criadores quanto o público sabem significa que um vídeo é desmonetizado – o que significa que seus fãs devem ler o documento abaixo para entender por que ela está usando palavras específicas . Ela teorizou, como muitas outras personalidades LGBTQ, que usando palavras como "lésbica" ou "transgênero" poderia resultar em desmonetização . Trocar esses termos por outras palavras aleatórias aparentemente não aconteceu.

"É tão discriminatório se você nunca diz isso, e ainda mais explorador se você diz", disse Een.

No início deste verão, vários criadores de LGBTQ entraram com uma ação contra o YouTube por supostas práticas discriminatórias incluindo conteúdo desmonetizador injusto que incluía termos compatíveis com LGBTQ. O processo também alega que o YouTube prejudica ativamente os números de visualizações de seus canais, colocando os vídeos no modo restrito, pelo qual a empresa havia se desculpado anteriormente e, portanto, limitando sua capacidade de ganhar dinheiro. O processo alega que "o YouTube está envolvido em conduta discriminatória, anticompetitiva e ilegal que prejudica uma classe protegida de pessoas de acordo com a lei da Califórnia".

"Estamos cansados ​​de ser aplacados com mentiras claras e promessas vazias de que o consertaram ou vão consertar", Chris Knight, co-apresentador de um programa de notícias LGBTQ no YouTube, GNews !, disse The Verge na época . "Está claramente quebrado. Existe claramente um viés na IA, nas políticas. O que realmente queremos é que eles mudem. ”

Sealow e Een afirmam que não acreditam que o YouTube ou o Wojcicki sejam homofóbicos ou propositalmente empregam práticas alegadas de homofobia. Eles acrescentam especificamente que isso não se deve a políticas específicas do YouTube ou à "falta de programas para reduzir a discriminação algorítmica".

"É simplesmente o resultado da natureza probabilística dos classificadores de aprendizado de máquina usados ​​pelo bot de desmonetização", acrescenta o relatório de Sealow.

[ad_2]

Source link



Os comentários estão desativados.