Plataforma utilizará sistema automatizado para identificar vídeos inapropriados para menores. Inteligência artificial tentará identificar vídeos inapropriados para menores de idade no YouTube.
Dado Ruvic/Reuters
O YouTube anunciou nesta terça-feira (22) que utilizará sistemas automatizados para identificar vídeos que deveriam ter restrição de idade.
Esses vídeos não podem ser assistidos por usuários que não estão logados na plataforma ou tenham menos de 18 anos.
A partir de agora, o YouTube irá utilizar uma inteligência artificial para fazer a detecção pró-ativa de vídeos que possam ter conteúdos inapropriados para menores.
Até então, cabia aos canais indicar se um vídeo tinha restrição de idade. Em alguns casos, os conteúdos eram reportados e passavam a ter a limitação.
A tendência é que mais vídeos recebem a restrição, mas a plataforma diz que os canais poderão apelar da decisão caso acreditem que ela foi aplicada incorretamente.
“Como nosso uso da tecnologia resultará em mais vídeos com restrição de idade, nossa equipe de política aproveitou essa oportunidade para revisitar onde traçamos a linha para conteúdo com restrição”, diz um comunicado do YouTube.
Os vídeos com limitação de idade também não podem ser assistidos em grande parte dos sites que incorporam o conteúdo.
“Os espectadores que clicarem nesses vídeos em outros sites, como em players incorporados, serão redirecionados para o YouTube”, diz uma página de suporte.
A política de uso do YouTube diz que o aplicativo não deve ser utilizado por pessoas com menos de 13 anos.
Como alternativa, a empresa criou o YouTube Kids, que reúne materiais para crianças com menos de 12 anos.
Saiba mais: YouTube vai mudar regras de publicidade em vídeos que têm audiência infantil
Uso de sistemas automatizados
O YouTube utiliza sistemas automatizados de moderação para tentar identificar vídeos de violência, conteúdo de ódio e extremismo.
Desde 2017 a plataforma passou a incorporar técnicas de machine learning (aprendizado de máquina) para identificar esses conteúdos de forma pró-ativa.
Entre abril e junho de 2020, o YouTube removeu 11,4 milhões de vídeos, a maioria com o uso de detecção automática. O principal motivo para as remoções é segurança infantil, com 33,5% dos casos.
Vídeos: Aprenda dicas de segurança digital
Comentar