Saltar para o conteúdo

Nova legislação sobre IA visa travar abusos com deepfakes, mas especialistas alertam para grandes falhas.

Jovem sentado à mesa a fazer videoconferência pelo telemóvel, com documentos e óculos à sua frente.

O ecrã dá um breve tremelique e, de imediato, aparece o rosto dela.

Ela sorri para a câmara e diz frases que nunca pronunciou. A voz soa assustadoramente fiel, o cenário parece familiar - sala de estar, estante com livros, uma planta “certinha” demais para ser verdadeira. Só quando o clip é partilhado no grupo de WhatsApp da família e alguém pergunta “És tu mesmo?” é que o ambiente muda. É um deepfake. Outra vez. Conhecemos este instante: um link rápido, um vídeo de 20 segundos, e de repente a confiança em tudo o que é digital começa a desfazer-se. E enquanto os políticos prometem “arrumar a casa” com novas leis para a IA, basta folhear os rascunhos para sentir que falta algo essencial - talvez mais do que uma simples nota de rodapé.

Leis novas, reflexos antigos: os deepfakes evoluem mais depressa do que o Estado

Quem hoje atravessa os corredores de Bruxelas ou acompanha as reuniões técnicas sobre tecnologia ouve a mesma palavra repetida: deepfakes. Em comissões, conversas de bastidores e intervalos para café. A União Europeia apresenta o Regulamento Europeu da IA (AI Act) como referência global, e muitos governos nacionais gostam da narrativa do “progresso regulado”. No papel, o pacote impressiona: obrigações de identificação/rotulagem, exigências de transparência e listas de sanções. No terreno, a história raramente é tão linear.

A razão é simples: modelos de IA não são “treinados” em debates parlamentares, mas em centros de dados. E quem pretende abusar destas ferramentas lê textos legais como se fossem um manual para contornar limites - com mais paciência do que qualquer cidadão que apenas quer perceber se um vídeo é verdadeiro.

Um episódio recente na Alemanha mostra como isto descamba. Durante o verão, circulou no TikTok um vídeo altamente convincente de um conhecido apresentador de televisão a promover, num “clip exclusivo”, um investimento em criptomoedas de origem duvidosa. Sincronização labial impecável, expressões faciais coerentes, timbre quase indistinguível do original. Milhares de pessoas partilharam; algumas investiram as poupanças. Só dias depois se confirmou: era tudo gerado por IA, um deepfake montado peça a peça. As autoridades ficaram presas a um problema antigo com roupa nova: servidores fora da Europa, operadores escondidos atrás de identidades falsas, plataformas a escudarem-se em termos de utilização. Sim, existem crimes de burla e direitos de personalidade. Mesmo assim, muitas vezes o “conselho prático” acaba por ser desolador: “Denuncie, bloqueie, não transfira dinheiro.”

Os novos diplomas tentam reagir a essa impotência. Impõem que conteúdos gerados por IA sejam identificáveis, pedem avaliações de risco aos fornecedores e prometem mão pesada para aplicações de alto risco. Faz sentido. O problema é que, em muitos enquadramentos, os deepfakes não entram de forma consistente na categoria máxima de risco - a não ser quando se fala explicitamente de manipulação eleitoral ou infraestruturas críticas.

E o resto? Pornografia de vingança com rostos trocados, vídeos falsos de candidaturas a emprego, áudios manipulados em disputas de guarda de menores. Se queremos regular o abuso com deepfakes, continuamos demasiado focados nas urnas e pouco atentos às conversas do dia a dia. E sejamos honestos: ninguém abre um regulamento europeu antes de carregar em “Partilhar”.

O que ajuda já: autoprotecção com deepfakes no bolso, não apenas no Diário da República

Quando a lei não acompanha o ritmo, o curto prazo pede pragmatismo: ferramentas e hábitos que funcionem no quotidiano. O primeiro passo é simples, quase desconfortável por ser tão básico: uma segunda opinião digital. Antes de acreditar num vídeo chocante, pare dois segundos, confirme a fonte, procure versões do mesmo clip noutros sítios, veja se meios credíveis o desmentiram. Várias redacções mantêm canais de verificação; algumas plataformas e apps de mensagens testam botões e alertas de validação.

Em paralelo, aparecem soluções de detecção técnica de deepfakes: análise de artefactos de imagem, reflexos de luz incoerentes, microfalhas no áudio. Não são infalíveis - e vão andar sempre atrás da próxima geração de modelos -, mas um aviso do tipo “possível conteúdo gerado por IA” já reduz a eficácia do engano.

A armadilha maior, porém, está em nós: confiamos demais no nosso próprio olhar. Quase toda a gente acha que “apanha logo” um deepfake - um canto da boca estranho, uma sombra fora do sítio. Só que os modelos actuais estão a tornar esse teste instintivo cada vez menos útil. E depois vem a vergonha: “Como é que fui tão ingénuo?” É aí que o abuso ganha força. A vergonha cala, e o problema fica invisível. Quem lida com burla por deepfake precisa de menos auto-culpa e mais serenidade colectiva perante o erro. Aqui, falhar não é sinónimo de falta de inteligência; é um efeito colateral de uma tecnologia que imita a realidade com precisão crescente.

Um especialista em direito penal informático resumiu-me isto, entre cansado e irritado:

“As leis muitas vezes parecem escritas como se os criminosos ainda usassem fax. Na prática, já trabalham com clusters de GPU em casa.”

Na prática, para utilizadores e famílias, isto traduz-se em rotinas claras:

  • Em vídeos emocionalmente carregados (medo, raiva, ganância), procure sempre uma segunda fonte.
  • Leve a sério falsificações de voz: se receber uma chamada estranha, confirme por retorno de chamada para um número conhecido.
  • Não reencaminhe conteúdos íntimos “por impulso” - mesmo supostos “leaks” de figuras públicas podem ser deepfakes e podem ser crime partilhar.
  • Guarde prova do incidente (capturas de ecrã, links, datas) e denuncie rapidamente, mesmo que a parte jurídica pareça confusa.
  • Reveja as definições das plataformas: limite autoplay, reencaminhamentos automáticos e opções de partilha rápida.

Um reforço simples, especialmente útil em grupos familiares e equipas de trabalho, é combinar palavras-código ou perguntas de confirmação para situações urgentes (“envia dinheiro já”, “estou em apuros”). Não resolve tudo, mas corta uma via comum de ataque: a pressão emocional em tempo real.

Lacunas grandes: quem responde quando ninguém quer ser responsável?

A frente mais delicada da regulação da IA é a responsabilidade. Quando um deepfake arruína reputações, carreiras ou relações, quem é o responsável efectivo?

  • Os criadores dos modelos apontam para termos de serviço e filtros de segurança.
  • As plataformas dizem que não conseguem rever, um a um, milhares de milhões de conteúdos diários.
  • Os autores do abuso escondem-se atrás de VPN, contas descartáveis e cadeias de distribuição opacas.
  • O Estado produz orientações negociadas durante anos, enquanto surgem novos falsos todos os dias.

Este triângulo de responsabilidades cria uma zona cinzenta onde as vítimas se sentem figurantes no próprio drama.

As novas regras apostam fortemente na transparência empresarial: divulgação de informação sobre dados de treino, indicação de uso de IA, comunicação de “incidentes graves”. É um passo. Mas, no dia a dia, continua abstracto. Para a pessoa cujo rosto foi inserido num vídeo pornográfico, pouco interessa se um fornecedor reportou a tempo à autoridade supervisora. O que ela precisa é concreto: remoção rápida, ajuda para recolha e preservação de prova, apoio psicológico e vias claras para indemnização.

Em conferências já se discute seriamente a criação de fundos de apoio a vítimas de abuso com IA. Ainda assim, falta - em muitos países - uma estrutura simples, acessível e imediata para que qualquer pessoa consiga orientação sem ter de começar por pagar a um advogado especializado.

Outra lacuna é o ritmo. Os modelos melhoram de mês a mês; os textos legais movem-se ao ritmo de anos. Um artigo sobre media sintéticos escrito hoje descreve, na prática, a tecnologia de ontem. E mesmo que se imponha rotulagem obrigatória de deepfakes, isso não significa que criminosos a cumpram. A discussão lembra os primeiros tempos da Internet, quando se pensou que exigir dados formais de contacto resolveria o spam. A verdade fria é esta: a regulação, por si só, nunca vai parar totalmente o abuso. Mas pode mudar o campo de jogo, clarificar deveres, e apertar o cerco a modelos de negócio sem escrúpulos.

Um ponto adicional, muitas vezes ignorado, é a necessidade de padrões técnicos de autenticidade: marca-d’água robusta, metadados verificáveis e cadeias de proveniência (por exemplo, assinaturas e registos de origem). Sem mecanismos adoptados de forma ampla por fabricantes, plataformas e meios de comunicação, a “prova” digital continuará a enfraquecer, mesmo com leis bem-intencionadas.

O que sobra é um desconfortável “entre-dois”

Vivemos uma fase de transição em que vídeo e áudio estão a perder estatuto de prova. Antes, uma gravação tinha peso: era moeda forte num conflito. Hoje, até perante uma entrevista emotiva, vale a pena parar um instante e perguntar: “Isto pode ter sido gerado?” Este cansaço do desconfio é real. Ao mesmo tempo, abre uma oportunidade: obriga-nos a reforçar literacia mediática como competência do dia a dia - não como luxo de jornalistas, juristas ou peritos.

O Regulamento Europeu da IA tenderá a funcionar mais como guardas de segurança na estrada do que como muralha intransponível. Vai gerar litígios, ocupar tribunais, criar brechas e depois tentar fechá-las. Ainda assim, é necessário precisamente por começar imperfeito.

A decisão mais importante, porém, não acontece apenas em plenários. Acontece à mesa da cozinha, no chat do trabalho, no grupo da família: partilho este vídeo? confio nesta voz? digo aos outros que isto me parece falso? No fundo, falar de regulação da IA é falar de algo profundamente humano: o nosso desejo de acreditar uns nos outros - e o medo de sermos enganados vezes demais.

Ponto-chave Detalhe Valor para o leitor
Novas leis de IA apostam em transparência e rotulagem Regulamento Europeu da IA com obrigações para fornecedores, mas foco limitado nos deepfakes do quotidiano Perceber por que a regulação existe, mas protege apenas parcialmente no dia a dia
O abuso com deepfakes atinge sobretudo pessoas comuns Exemplos de burla financeira, destruição de reputação e violência sexual com media sintéticos Reconhecer que o risco é real, longe de cenários “de cinema” ou apenas eleitorais
Estratégias práticas de autoprotecção aplicam-se já Segunda opinião digital, preservação de prova, atenção a conteúdos emocionais Acções concretas para integrar de imediato na rotina

FAQ

  • Pergunta 1: Como é que eu, sem conhecimentos técnicos, consigo reconhecer um deepfake?
  • Pergunta 2: Tenho protecção legal se alguém montar o meu rosto num vídeo falso?
  • Pergunta 3: Que papel tem, na prática, a União Europeia com o seu Regulamento da IA no tema dos deepfakes?
  • Pergunta 4: O que devo fazer se um deepfake meu estiver a circular online?
  • Pergunta 5: As leis actuais sobre IA conseguem acompanhar a velocidade desta evolução?

Comentários

Ainda não há comentários. Seja o primeiro!

Deixar um comentário