Ferramenta de detecção de deepfake preocupa criadores e especialistas

Ferramenta de detecção de deepfake preocupa criadores e especialistas

by Patrícia Moreira
0 comentários

Ferramenta do YouTube e Preocupações com Dados Biométricos

Uma ferramenta do YouTube, que utiliza biometria dos criadores para ajudar na remoção de vídeos gerados por inteligência artificial que exploram suas imagens, também permite que o Google treine seus modelos de IA com esses dados sensíveis, conforme especialistas informaram à CNBC.

Em resposta a preocupações levantadas por especialistas em propriedade intelectual, o YouTube afirmou à CNBC que o Google nunca usou dados biométricos de criadores para treinar modelos de IA e que a plataforma está revisando a linguagem usada no formulário de inscrição da ferramenta para evitar confusões. Contudo, o YouTube destacou que não mudará sua política subjacente.

A discrepância ressalta uma divisão mais ampla dentro da Alphabet, onde o Google está expandindo agressivamente seus esforços de IA, enquanto o YouTube trabalha para manter a confiança dos criadores e detentores de direitos que dependem da plataforma para seus negócios.

Expansão da Detecção de Semelhança

O YouTube está expandindo sua “detecção de semelhança”, uma ferramenta introduzida em outubro que sinaliza quando o rosto de um criador é utilizado sem sua permissão em deepfakes, termo usado para descrever vídeos falsos criados por IA. Essa funcionalidade está sendo ampliada para milhões de criadores no Programa de Parceria do YouTube, uma vez que o conteúdo manipulado por IA se torna cada vez mais comum nas redes sociais.

A ferramenta examina os vídeos carregados no YouTube para identificar onde o rosto de um criador pode ter sido alterado ou gerado por inteligência artificial. Os criadores podem então decidir se desejam solicitar a remoção do vídeo, mas para utilizar a ferramenta, o YouTube exige que os criadores enviem uma identificação governamental e um vídeo biométrico de seu rosto. Biometria refere-se à medição de características físicas para verificar a identidade de uma pessoa.

Especialistas apontam que, ao vincular a ferramenta à Política de Privacidade do Google, o YouTube deixou em aberto a possibilidade de uso indevido futuro dos biométricos dos criadores. A política afirma que conteúdos públicos, incluindo informações biométricas, podem ser usados “para ajudar a treinar os modelos de IA do Google e construir produtos e funcionalidades”.

“A detecção de semelhança é um recurso completamente opcional, mas exige uma referência visual para funcionar”, afirmou o porta-voz do YouTube, Jack Malon, em declaração à CNBC. “Nossa abordagem em relação a esses dados não está mudando. Como nosso Centro de Ajuda declarou desde o lançamento, os dados fornecidos para a ferramenta de detecção de semelhança são usados apenas para fins de verificação de identidade e para alimentar essa funcionalidade de segurança específica.”

O YouTube informou à CNBC que está “considerando maneiras de tornar a linguagem do produto mais clara”. A empresa não especificou quais mudanças de redação serão feitas ou quando elas entrarão em vigor.

Preocupações dos Especialistas

Os especialistas permanecem cautelosos, afirmando que levantaram preocupações sobre a política ao YouTube meses atrás.

“À medida que o Google acelera sua competição em IA e os dados de treinamento se tornam ouro estratégico, os criadores precisam pensar cuidadosamente sobre se querem que seu rosto seja controlado por uma plataforma em vez de ser de sua propriedade”, disse Dan Neely, CEO da Vermillio, que ajuda indivíduos a proteger sua semelhança de uso indevido e também facilita o licenciamento seguro de conteúdo autorizado. “Sua semelhança será um dos ativos mais valiosos na era da IA, e uma vez que você entrega esse controle, pode nunca mais recuperá-lo.”

A Vermillio e a Loti são empresas terceirizadas que trabalham com criadores, celebridades e companhias de mídia para monitorar e fazer cumprir os direitos de semelhança na internet. Com os avanços na geração de vídeos por IA, sua utilidade aumentou para detentores de direitos de propriedade intelectual.

O CEO da Loti, Luke Arrigoni, afirmou que os riscos da atual política biométrica do YouTube “são enormes”.

“Porque a liberação atualmente permite que alguém anexe esse nome à biometria real do rosto, eles poderiam criar algo mais sintético que se pareça com essa pessoa”, declarou Arrigoni.

Neely e Arrigoni afirmaram que atualmente não recomendariam que nenhum de seus clientes se inscrevesse na detecção de semelhança no YouTube.

Funcionamento da Ferramenta

O chefe de Produto para Criadores do YouTube, Amjad Hanif, afirmou que a ferramenta de detecção de semelhança foi construída para operar “na escala do YouTube”, onde centenas de horas de material novo são postadas a cada minuto. A ferramenta deve ser disponibilizada para os mais de 3 milhões de criadores no Programa de Parceria do YouTube até o final de janeiro, segundo Hanif.

“Nós nos saímos bem quando os criadores se saem bem”, disse Hanif à CNBC. “Estamos aqui como administradores e apoiadores do ecossistema criador, e por isso estamos investindo em ferramentas para apoiá-los nessa jornada.”

O lançamento acontece enquanto as ferramentas de vídeo geradas por IA melhoram rapidamente em qualidade e acessibilidade, levantando novas preocupações para criadores cuja semelhança e voz são centrais para seus negócios.

Caso de Creator Notável

O criador do YouTube Mikhail Varshavski, conhecido como Doctor Mike na plataforma, afirmou que utiliza a ferramenta de detecção de semelhança do serviço para revisar dezenas de vídeos manipulados por IA por semana.

Varshavski está no YouTube há quase uma década e acumula mais de 14 milhões de inscritos na plataforma. Ele produz vídeos reagindo a dramas médicos na televisão, respondendo a perguntas sobre tendências de saúde e desmascarando mitos. Varshavski confia em sua credibilidade como médico certificado para informar seus espectadores.

Avanços rápidos em IA tornaram mais fácil para pessoas mal-intencionadas copiare seu rosto e voz em vídeos deepfake que poderiam fornecer conselhos médicos enganosos aos seus espectadores, afirmou Varshavski.

Ele teve a primeira experiência com um deepfake de si mesmo no TikTok, onde um doppelgänger gerado por IA promoveu um suplemento “milagroso” que Varshavski nunca tinha ouvido falar.

“Obviamente me deixou assustado, porque passei mais de uma década investindo para conquistar a confiança do público e dizendo a verdade, ajudando-os a tomar boas decisões de saúde”, relatou. “Ver alguém usar minha semelhança para enganar alguém a comprar algo que não precisa ou que pode prejudicá-lo me apavorou.”

Ferramentas de geração de vídeo por IA, como o Veo 3 do Google e o Sora da OpenAI, tornaram significativamente mais fácil criar deepfakes de celebridades e criadores como Varshavski. Isso ocorre porque sua imagem é frequentemente incluída nos conjuntos de dados usados pelas empresas de tecnologia para treinar seus modelos de IA.

O Veo 3 é treinado em um subconjunto dos mais de 20 bilhões de vídeos carregados no YouTube, conforme reportado pela CNBC em julho. Isso pode incluir várias centenas de horas de vídeo de Varshavski.

Os deepfakes se tornaram “mais disseminados e proliferativos”, disse Varshavski. “Vi canais inteiros criados para usar esses tipos de deepfakes de IA, seja para enganar as pessoas a comprar um produto ou exclusivamente para intimidar alguém.”

No momento, os criadores não têm como monetizar o uso não autorizado de sua semelhança, ao contrário das opções de compartilhamento de receitas disponíveis através do sistema Content ID do YouTube para material com direitos autorais, que é geralmente usado por empresas que possuam grandes catálogos de direitos autorais. Hanif afirmou que a empresa está explorando como um modelo semelhante poderia funcionar para o uso de semelhanças geradas por IA no futuro.

No início deste ano, o YouTube deu aos criadores a opção de permitir que empresas de IA de terceiros treinassem em seus vídeos. Hanif informou que milhões de criadores optaram por esse programa, sem promessa de compensação.

Hanif afirmou que sua equipe ainda está trabalhando para melhorar a precisão do produto, mas os testes iniciais foram bem-sucedidos, embora não tenha fornecido métricas de precisão.

Quanto à atividade de remoção na plataforma, Hanif informou que permanece baixa, em grande parte porque muitos criadores optam por não excluir vídeos sinalizados.

“Eles ficam felizes em saber que a ferramenta está disponível, mas não sentem que é necessário removê-los”, disse Hanif. “De longe, a ação mais comum é dizer: ‘Eu olhei, mas estou ok com isso.’

Agentes e defensores de direitos informaram à CNBC que a baixa quantidade de remoções é mais provavelmente devido à confusão e falta de conscientização do que ao conforto com conteúdo de IA.

Fonte: www.cnbc.com

As informações apresentadas neste artigo têm caráter educativo e informativo. Não constituem recomendação de compra, venda ou manutenção de ativos financeiros. O mercado de capitais envolve riscos e cada investidor deve avaliar cuidadosamente seus objetivos, perfil e tolerância ao risco antes de tomar decisões. Sempre consulte profissionais qualificados antes de realizar qualquer investimento.

Você pode se interessar

Utilizamos cookies para melhorar sua experiência de navegação, personalizar conteúdo e analisar o tráfego do site. Ao continuar navegando em nosso site, você concorda com o uso de cookies conforme descrito em nossa Política de Privacidade. Você pode alterar suas preferências a qualquer momento nas configurações do seu navegador. Aceitar Leia Mais

Privacy & Cookies Policy