O YouTube está se preparando para atualizar suas políticas para reprimir a capacidade dos criadores de gerar receita a partir de conteúdo “inautêntico”, incluindo vídeos produzidos em massa e outros tipos de conteúdo repetitivo-coisas que se tornaram mais fáceis de gerar com a ajuda da tecnologia de IA.
Em 15 de julho, a empresa atualizará as políticas de monetização do Programa de Parceiros do YouTube (YPP) com diretrizes mais detalhadas sobre que tipo de conteúdo pode ganhar dinheiro com os criadores e o que não pode.
A própria linguagem da política exata ainda não foi lançada, mas uma página na documentação de ajuda do YouTube explica que os criadores sempre foram obrigados a fazer upload de conteúdo “original” e “autêntico”. A atualização diz que o novo idioma ajudará os criadores a entender melhor como é o conteúdo “inautêntico”.
Alguns criadores do YouTube estavam preocupados com o fato de a atualização limitar sua capacidade de monetizar certos tipos de vídeos, como vídeos de reação ou aqueles com clipes, mas uma postagem do chefe do YouTube do Lianison Ritchie, do YouTube.
Em uma atualização de vídeo publicada na terça-feira, Ritchie diz que a mudança é apenas uma “atualização menor” das políticas de longa data do YouTube e foi projetada para melhor se identificar quando o conteúdo é produzido em massa ou repetitivo.
Além disso, acrescenta Ritchie, esse tipo de conteúdo não foi elegível para monetização há anos, pois é conteúdo que os espectadores costumam considerar spam.
O que Ritchie não está dizendo, no entanto, é o quão mais fácil é criar esses vídeos hoje em dia.
Com a ascensão da tecnologia de IA, o YouTube ficou inundado com AI Slop, um termo referente a mídia ou conteúdo de baixa qualidade fabricado usando a tecnologia generativa de IA. Por exemplo, é comum encontrar uma voz de IA sobreposta em fotos, videoclipes ou outro conteúdo reaproveitado, graças às ferramentas de texto para o vídeo. Alguns canais cheios de música de IA têm milhões de assinantes. Vídeos falsos, gerados pela IA sobre eventos de notícias, como o Diddy Trial, acumularam milhões de visualizações.
Em outro exemplo, uma verdadeira série de assassinatos ao crime no YouTube que se tornou viral foi totalmente gerada pela IA, a 404 Media relatou no início deste ano. Até a semelhança do CEO do YouTube, Neal Mohan, foi usada em um golpe de phishing gerado pela IA no site, apesar de ter ferramentas em vigor que permitem aos usuários relatar vídeos Deepfake.
Embora o YouTube possa subestimar as próximas mudanças como uma atualização ou esclarecimento “menor”, a realidade é que permitir que esse tipo de conteúdo cresça e seus criadores tenham lucro pode prejudicar a reputação e o valor do YouTube. Não é surpresa, então, que a empresa queira políticas claras que permitam promulgar proibições em massa de criadores de AI da YPP.