A Polícia de Delhi contatou formalmente a Meta, solicitando a URL da conta responsável por compartilhar o vídeo ‘deepfake’ da atriz Rashmika Mandanna nas redes sociais. Esta ação segue a apresentação de um FIR pela polícia municipal em conexão com o incidente.

Como parte das investigações em curso, a Polícia de Deli também procurou informações sobre indivíduos que divulgaram o vídeo fabricado nas redes sociais. “Entramos em comunicação com a Meta para obter o URL ID associado à conta responsável pela geração do vídeo”, revelou ao PTI um oficial familiarizado com a investigação.

O FIR, apresentado na Unidade de Fusão de Inteligência e Operações Estratégicas da Célula Especial da Polícia de Delhi, invoca as seções 465 (falsificação) e 469 (falsificação com o propósito de prejudicar a reputação) do Código Penal Indiano, juntamente com as seções 66C e 66E do Lei de Tecnologia da Informação.

Para resolver esta questão, foi montada uma equipa especializada de agentes, com otimismo expresso por um agente de que o caso será resolvido prontamente. Além disso, a Comissão para as Mulheres de Deli emitiu um aviso à polícia da cidade, instando a tomar medidas contra os implicados no incidente do vídeo.

Na semana passada, um vídeo deepfake com Rashmika Madanna, suspeito de ter sido criado com a ajuda de Inteligência Artificial, ganhou ampla atenção nas redes sociais. O vídeo original supostamente pertencia a um influenciador britânico-indiano, com o rosto de Mandanna sobreposto digitalmente.

O que é um Deepfake?

Um deepfake é um tipo de mídia sintética que usa inteligência artificial (IA) para criar ou manipular conteúdo, normalmente na forma de áudio, imagens ou vídeos, com o objetivo de parecer autêntico ou real. O termo “deepfake” é derivado da combinação de “aprendizado profundo” (um subconjunto do aprendizado de máquina) e “falso”.

No contexto dos vídeos, os deepfakes podem envolver a troca de rostos ou a alteração das expressões faciais dos indivíduos de uma forma que faça parecer de forma convincente que eles estão dizendo ou fazendo coisas que nunca fizeram. Esta tecnologia suscitou preocupações devido ao seu potencial de utilização indevida, como a criação de conteúdos enganosos ou fraudulentos, a difusão de informações erradas e o potencial de causar danos a indivíduos, colocando-os em cenários fabricados.

Deepfakes têm aplicações além da manipulação de vídeos, incluindo a geração de gravações de voz com som realista e a criação de imagens convincentes. Como resultado, têm havido esforços para desenvolver tecnologias para detectar e mitigar o impacto dos deepfakes, particularmente nos domínios da segurança cibernética e da integridade dos meios de comunicação social.

Leia também Preocupado com suas imagens, vídeos sendo usados ​​​​como deepfake? Veja como manter a mídia segura

Fuente

Previous articleDuas tortas clássicas vão ficar maiores no Dia de Ação de Graças
Next articlePara verificar a poluição do ar, Bihar deve ‘nomear e envergonhar’ os agricultores que queimam resíduos de colheitas

LEAVE A REPLY

Please enter your comment!
Please enter your name here