
Advogados especialistas em direito digital falam sobre prejuízos de conteúdos deepfake Cidades do interior de São Paulo registraram, nos últimos dois anos, mais de 30 mulheres vítimas de deepfake, uma ferramenta de inteligência artificial usada para criar imagens falsas. Entre as vítimas está a prefeita de Bauru (SP), Suéllen Rosim (PSD), que denunciou o caso em setembro de 2024. Na época, Rosim registrou um boletim de ocorrência após a circulação de fotomontagens deepfake que usavam seu rosto sobre o corpo de uma mulher nua. O g1 teve acesso ao registro policial, que apontava que a imagem circulava pelo WhatsApp com a mensagem “Encaminhada com frequência”, o que indica ampla disseminação na rede social. 📲 Participe do canal do g1 Sorocaba e Jundiaí no WhatsApp Segundo o boletim, a montagem, à qual o g1 não teve acesso, foi analisada por equipes policiais por meio da ferramenta “AI or Not?”, que concluiu que o conteúdo foi gerado por inteligência artificial. Além da prefeita, outras mulheres também foram vítimas desse tipo de montagem, com a maioria dos casos concentrada em uma única escola estadual localizada em Itararé (SP). Também em setembro de 2024, dois adolescentes, de 15 e 16 anos à época, foram apontados como principais suspeitos de criar imagens de nudez falsas de estudantes da unidade. De acordo com a Secretaria de Segurança Pública (SSP), os adolescentes teriam utilizado ferramentas de IA para produzir as montagens. O g1 apurou que 36 adolescentes, com idades entre 13 e 17 anos, e outras quatro pessoas maiores de 18 anos, incluindo uma professora, foram vítimas. Um ano depois, em agosto de 2025, pais de estudantes de uma escola particular de Itapetininga (SP) denunciaram à polícia a manipulação de imagens de nudez feitas com uso de inteligência artificial por um colega de classe. O aluno suspeito foi suspenso. Conforme apuração do g1, os envolvidos são estudantes do ensino fundamental. Ainda em agosto de 2025, dois adolescentes, de 15 e 16 anos, foram apreendidos por produzir e divulgar imagens falsas de nudez de uma jovem de 15 anos em uma escola estadual de Votorantim (SP), utilizando a mesma tecnologia. Esse tipo de exposição pode causar às vítimas depressão, baixa autoestima, ansiedade, medo, agressividade e outros impactos emocionais. Por isso, mesmo havendo previsão legal para o crime, muitos pais demonstram preocupação e buscam informações sobre como proteger os filhos e evitar que sejam vítimas desse tipo de violência digital. Como saber se é IA? Ver um rosto conhecido falando ou aparecendo em situações improváveis passou a despertar desconfiança entre internautas, já que o conteúdo pode se tratar de um deepfake. Esse tipo de material tem se tornado cada vez mais comum na internet. Deepfakes são conteúdos falsos criados com inteligência artificial que, muitas vezes, vão além do entretenimento ou do humor, com o objetivo de enganar usuários, aplicar golpes ou causar danos à reputação das vítimas. Diante do aumento no número de casos, o g1 ouviu especialistas para orientar sobre como identificar e denunciar esse tipo de conteúdo. O coordenador de tecnologia da UniFacens, em Sorocaba (SP), Eliney Sabino, explica que a criação de deepfakes utiliza inteligência artificial para copiar imagem, voz e movimentos de uma pessoa e aplicá-los em outra. A tecnologia “aprende” a partir da análise de grandes volumes de fotos, vídeos e áudios reais. Segundo ele, apesar de hoje estar mais acessível, essa tecnologia é usada há décadas no cinema e nos videogames, em produções como “Avatar”, “O Senhor dos Anéis” e “Planeta dos Macacos”. A diferença é que, fora do contexto artístico, quando algo falso passa a parecer real, caracteriza-se o deepfake. Tecnologia que capta movimentos e muda aparência de atores é usada no cinema há anos, segundo especialista de Sorocaba (SP) Reprodução Segundo o coordenador, conteúdos como estes enganam o cérebro humano porque ele confia muito no que vê e ouve, justamente porque durante muito tempo, imagens e vídeos foram considerados provas da realidade, mas esses materiais já não podem mais ser considerados garantias da verdade. "A pessoa se movimenta diante da câmera, mexe o rosto e fala normalmente, mas o software substitui a imagem pelo rosto de outra pessoa e transforma a voz em tempo real. O resultado é alguém se passando por outra pessoa de forma muito convincente", descreve Eliney. Eliney Sabino, coordenador de tecnologia na UniFacens, em Sorocaba (SP), fala sobre IAs e criação de deepfakes Arquivo pessoal Crimes digitais e como denunciar Os advogados especialistas em direito digital Rodrigo Holtz Guerreiro e Gabriel Guerrero de Souza, ambos de Sorocaba, alertam que o uso de deepfakes pode causar prejuízos reais. Assista parte da entrevista no início da reportagem. "Um deepfake viola direitos civis quando usa o rosto ou a voz de alguém sem autorização para enganar, difamar ou expor essa pessoa. Já vimos casos de vídeos falsos usados para aplicar golpes, destruir reputações, gerar constrangimento público e até prejuízos profissionais. Nesse caso, não é brincadeira, é uma violação clara de direitos e pode ser tratado como crime", afirma Rodrigo. Rodrigo Holtz Guerreiro, advogado de direito digital e Inteligência Artificial de Sorocaba (SP) Arquivo pessoal Ele orienta que a vítima deve agir rapidamente, salvando provas como imagens, links, prints, datas e nomes de perfis que divulgaram o conteúdo. Em seguida, é importante denunciar o material na própria plataforma onde ele circula. Se o dano for grave ou o conteúdo não for removido, a orientação é procurar um advogado. Gabriel Guerrero destaca que as penalidades variam conforme o caso e podem incluir indenização, multas e outras sanções legais, especialmente em situações de golpe, difamação ou uso eleitoral. Segundo ele, o Tribunal Superior Eleitoral (TSE) proíbe expressamente o uso de deepfakes em propaganda política, com risco de cassação de registro ou mandato. Gabriel Guerrero de Souza, advogado especialistas em direito digital de Sorocaba (SP) Arquivo pessoal Como identificar uma deepfake Entre os sinais mais comuns estão movimentos faciais estranhos, sincronia imperfeita entre boca e fala, piscadas pouco naturais, expressões rígidas e deformações em partes do corpo, como mãos com número incorreto de dedos ou movimentos fora do padrão humano. Além da observação visual, especialistas recomendam verificar a fonte do conteúdo, desconfiar de vídeos que provoquem medo ou urgência e buscar confirmação em veículos de imprensa confiáveis. Também existem ferramentas de apoio à verificação, como Google Imagens, Google Lens, InVID/WeVerify, Deepware Scanner, Hive Moderation e Microsoft Video Authenticator. Nenhuma delas é infalível, mas ajudam na análise. Para Eliney Sabino, mais do que tecnologia, o principal mecanismo de defesa é a educação digital. “Em um cenário em que ‘ver’ já não significa necessariamente ‘ser real’, desenvolver senso crítico é essencial para evitar golpes, crimes virtuais e desinformação.” Coordenador de tecnologia na UniFacens, em Sorocaba (SP), Eliney Sabino Arquivo pessoal Vídeo de demonstração Um vídeo do criador de conteúdo, professor e empreendedor de inteligência artificial Paulo Aguiar viralizou recentemente ao demonstrar, de forma prática, o realismo das deepfakes. O material ultrapassou 26 milhões de visualizações no Instagram. Initial plugin text No vídeo, ele utiliza rostos e corpos de diversas figuras públicas para mostrar como a tecnologia funciona. Ao g1, Paulo afirmou que a tendência é que as ferramentas se tornem cada vez mais realistas e acessíveis. Assista parte da entrevista abaixo. "Desde o lançamento dessa ferramenta, eu comecei a ver muitos conteúdos onde pessoas não tinham certeza se foram feitas com IA ou não. Desde conteúdo político, até conteúdo adulto, religioso, feito utilizando essa técnica [deepfake]. E aí em vez de fazer um tutorial ensinando as pessoas a fazer, pensei: 'Vou fazer um conteúdo mostrando tudo o que pode ser feito e dar algumas dicas de como podemos nos proteger e identificar conteúdos desse tipo'", disse. Criador de conteúdo, Paulo Aguiar, fala sobre vídeo viralizado que aborda deepfake Para ele, a IA vai se tornar um recurso cada vez mais presente no dia a dia e que, ao invés de sentir medo dela, as pessoas precisam aprender a lidar com a ferramenta, reconhecê-la e usá-la a seu favor. "Quanto mais informação você tem, menos ameaçado você se sente. A inteligência artificial não vai parar, ela vai ficar cada vez melhor, mais rápida e mais barata. E todo mundo precisa ter informação para se proteger, entender como identificar o conteúdo, mas acima de tudo, identificar oportunidades para sua própria profissão (...) acredito que a inteligência humana tem muito poder e muita necessidade, critério, propósito, sensibilidade, empatia... são traços humanos que, quando você usa a IA em conjunto com isso, é onde o trabalho incrível acontece", finaliza. Criador de conteúdo, professor e empreendedor do universo de inteligência artificial, Paulo Aguiar, viralizou com vídeo sobre deepfake g1/Reprodução Vídeo com imagens falsas de famosos viralizou alertando sobre os perigos da Deepfake @paulo.ia/Instagram/Reprodução Veja mais notícias da região no g1 Sorocaba e Jundiaí VÍDEOS: assista às reportagens da TV TEM
