Esta ferramenta pode proteger as imagens da manipulação por IA

Esta ferramenta pode proteger as imagens da manipulação por IA

Aviso: A imagem destacada foi gerada por inteligência artificial para fins ilustrativos.

As imagens geradas por inteligência artificial (IA) estão em todos os lugares. Desde a famosa foto fake do Papa usando um casaco puffer até a imagem de Donald Trump sendo preso, essas criações mostram como a tecnologia está ficando cada vez mais convincente. Mas o que antes parecia apenas uma curiosidade agora se tornou um problema sério: ainda podemos confiar no que vemos?

Com a IA se tornando cada vez mais acessível, surgem preocupações sobre o impacto dessas ferramentas na confiança que depositamos nas imagens. Durante as eleições nos EUA, vimos um aumento significativo de deepfakes e manipulações políticas. O perigo aqui é claro: em um mundo onde qualquer foto pode ser falsificada, como garantir a autenticidade?

Para enfrentar esse desafio, iniciativas como a Coalition for Content Provenance and Authenticity (C2PA) estão tentando encontrar soluções. A proposta é criar um sistema de verificação baseado em metadados criptográficos, que funcionam como uma espécie de “assinatura digital”.

Esses metadados registram informações detalhadas sobre a origem de uma imagem, como o dispositivo que a capturou, as ferramentas de edição utilizadas e possíveis manipulações, incluindo o uso de IA. É como se cada imagem viesse com um “histórico” invisível que poderia ser acessado para conferir sua autenticidade.

Em teoria, esse sistema permitiria que qualquer pessoa soubesse se uma imagem foi manipulada ou gerada por IA. O problema é que, para funcionar, ele depende da adesão de fabricantes de câmeras, plataformas de edição e redes sociais, que precisam incorporar esse padrão.

No momento, a adoção ainda é limitada, e a tecnologia enfrenta o desafio de ser amplamente implementada, especialmente em dispositivos móveis, que são os mais usados para capturar e compartilhar imagens. Poucas câmeras e aplicativos de edição oferecem suporte ao padrão C2PA, e, embora gigantes como Nikon e Canon prometam aderir, a adoção em larga escala ainda não aconteceu.

E quando falamos de smartphones, que são as câmeras mais usadas hoje, a situação é ainda mais complicada porque a maioria deles ainda não oferece suporte ao padrão C2PA. Ou seja, a tecnologia necessária para autenticar e verificar imagens geradas ou editadas simplesmente não está presente nos dispositivos que a maioria das pessoas utiliza no dia a dia. Isso cria uma lacuna significativa na implementação em larga escala dessa solução.

Nas plataformas digitais, o cenário também é desafiador. A Meta (dona do Facebook e Instagram) tentou rotular imagens geradas por IA, mas isso gerou insatisfação entre fotógrafos que não usam IA em suas edições. Já o X (antigo Twitter), apesar de ter aderido ao C2PA, ainda não implementou um sistema de verificação eficaz.

Alguns defendem que, desde o surgimento do Photoshop, já vivemos em um mundo de manipulações de imagens. No entanto, há uma diferença crucial: enquanto o Photoshop demanda tempo e habilidade, as ferramentas de IA permitem edições complexas em segundos, acessíveis a qualquer pessoa, sem necessidade de conhecimento técnico.

Estamos em um ponto decisivo. Iniciativas como o C2PA são passos importantes para restaurar a confiança no que vemos, mas a credibilidade das imagens digitais já está profundamente abalada. A grande questão é: estamos preparados para um futuro em que qualquer pessoa pode manipular imagens com facilidade e compartilhá-las em massa, tornando quase impossível diferenciar o real do falso?

DEMO: C2PA Content Provenance specification in actionDEMO: C2PA Content Provenance specification in action
Compartilhe esse artigo: