HIT!News, K-pop

FCENM tomará medidas judiciais contra vídeos de “deepfake” feitos com o grupo ILY:1

Neste sábado (31), a agência FCENM, responsável pelo girl group ILY:1, soltou uma nota a respeito de vídeos falsos gerados por Inteligência Artificial que estão circulando com a imagem das integrantes.

Os materiais são chamados de “deepfake“. Neles, é possível colocar o rosto de qualquer pessoa em fotos ou vídeos de cunho sexual e assim criar conteúdo de falsa pornografia. “Esse tipo de ação constitui um crime grave que difama a honra dos artistas, e estamos levando isso muito a sério”, diz empresa em comunicado.

Após identificar a atividade ilegal, a agência declara que está reunindo provas para punir os autores.

Abaixo você lê a declaração na íntegra:

Olá, aqui é a FCENM.

Recentemente, tomamos conhecimento da disseminação online de vídeos sintéticos feitos em IA envolvendo nossos artistas.

Esse tipo de ação constitui um crime grave que difama a honra dos artistas, e estamos levando isso muito a sério.

Estamos atualmente reunindo todas as provas relevantes e colaborando com uma equipe jurídica especializada para tomar medidas legais rigorosas.

Gostaríamos de enfatizar que não iremos tolerar, sob nenhuma circunstância, qualquer ato ilegal que viole os direitos e a honra dos nossos artistas.

A FCENM continuará priorizando a proteção de seus artistas e tomará todas as medidas necessárias para garantir isso.

Obrigado.

Tradução do coreano para português feita por Samuel Eliasafe, não utilizar sem os devidos créditos

FCNEM não é a primeira empresa a abordar a questão. Na sexta (30), a JYP veio a frente dizer que também está coletando evidências e que agirá de forma severa contra aqueles que depreciam a honra de seus artistas.

Tudo isso acontece em meio a uma epidemia de “deepfake” que tem acontecido na Coreia. O principal meio por onde essas montagens maliciosas circulam é o Telegram, já que o rastreio da atividade dentro do aplicativo é mais difícil. A legislação sul-coreana tenta, junto à plataforma, impedir a propagação de tal crime sexual digital.

O problema afeta principalmente as mulheres no país. Além disso, em pesquisa recente feita pela Agência Nacional de Polícia da Coreia e publicada ontem, foi revelado que quase 6 em cada 10 das vítimas são menores de idade.

Fonte: (1) (2)

Sobre o autor

Jornalista brasileira explorando o mundo da música, arte, cultura pop e tudo relacionado a K-culture. 📩 Pautas/Suggestion: virginia.bsoliveira@gmail.com

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *