Serviço de vídeos diz ter criado site “para que todos na comunidade saibam o que podem ou não fazer”. Página detalha as políticas e explica de forma básica como atuam os sistemas de recomendação e outras ferramentas. ‘Como o YouTube funciona’ é a nova plataforma de transparência do serviço de vídeos.
Dado Ruvic/Reuters
ag
O YouTube lançou nesta quarta-feira (23) um portal de transparência chamado “Como o YouTube funciona”.
O site reúne respostas sobre perguntas frequentes envolvendo temas como segurança infantil, conteúdo nocivo, informações incorretas, direitos autorais ou funcionamento dos sistemas de recomendações de vídeos.
Há seções dedicadas às ações do YouTube relacionadas com eleições, explicando quais são as suas diretrizes e quais tipos de conteúdo podem ser removidos, por exemplo.
Informações sobre remoções de vídeos a cada trimestre, além de dados, registros e tendências atuais também aparecem na página.
O YouTube diz que criou esse espaço “para que todos na comunidade saibam o que podem ou não fazer” na plataforma.
“YouTube é uma plataforma aberta e nossa missão é dar uma voz para todo mundo”, disse Jennifer O’Connor, diretora de gerência de produtos no YouTube, no evento que marcou o lançamento do portal de transparência.
“Abertura não significa que qualquer tipo de conteúdo pode estar na plataforma, e sabemos que com abertura podem aparecer coisas que não queremos”, completou.
O YouTube tem sido criticado nos últimos anos por supostamente dar espaço a vídeos com discurso de ódio, teorias da conspiração e por manter os usuários em “bolhas”, reforçando as recomendações de vídeos similares.
No novo site, há respostas dedicadas a questões sobre privacidade e explicações básicas sobre como funcionam os algoritmos de recomendação e de busca.
Em 2018, o YouTube passou a exibir textos da Wikipedia ao lado de vídeos com teorias da conspiração. No ano passado, o sistema de recomendação de vídeos também foi atualizado para dar mais controle aos usuários.
O vice-presidente de gerenciamento de produtos do Youtube, Woojin Kim, disse que a plataforma tem aplicado medidas para reduzir o alcance de vídeos com desinformação ou teorias conspiratórias, mas admitiu que muitos desses conteúdos são mantidos.
“Quando usuários estão interagindo com conteúdo que tem desinformação ou conspiração, o que fazemos é assegurar que o os vídeos recomendados, contenha mais conteúdos com autoridade, de fontes confiáveis”, disse Kim.
“Quando se trata de teorias da conspiração existem alguns tipos de conteúdo que removemos, caso eles possam causar danos às pessoas. Mas é verdade que existem conteúdos de conspiração que são mantidos, mas tentamos oferecer mais contexto aos usuários e reduzir a recomendação desse tipo de conteúdo e não perpetuar o consumo”, completou.
Na última terça-feira (22) o YouTube anunciou que utilizará sistemas automatizados para identificar vídeos que deveriam ter restrição de idade.
A plataforma deixará uma inteligência artificial encarregada de fazer a detecção pró-ativa de vídeos que possam ter conteúdos inapropriados para menores.
Desde o início da pandemia, o YouTube tem reforçado o uso de sistemas automatizados para a moderação do conteúdo. A medida está relacionada com a redução da disponibilidade dos moderadores humanos.
De acordo com a plataforma, os algoritmos costumam remover mais vídeos do que humanos, mas criadores podem apelar da decisão. Esses mecanismos estão detalhados no novo portal de transparência.
Veja os últimos vídeos sobre tecnologia no G1
n
Comentar