Os geradores de imagens de IA se tornaram populares, como a famosa ferramenta Midjourney, que ostenta o número de mais de 14,5 milhões de usuários. O SynthID identificará imagens geradas por máquinas
Google Deepmind via BBC
O desenvolvimento cada vez mais rápido das ferramentas de inteligência artificial (IA) tem criado um temor crescente: o aperfeiçoamento das imagens “deep fake” a um ponto em que seja quase impossível diferenciá-las de registros reais.
Para tentar combater isso, o Google está testando uma marca d’água digital para detectar e sinalizar imagens feitas por IA.
Desenvolvido pela Deepmind, o braço de IA do Google, o SynthID identificará imagens geradas por máquinas.
Ele funciona incorporando alterações em pixels individuais nas imagens, de modo que as marcas d’água sejam invisíveis ao olho humano, mas detectáveis pelos computadores.
Mas a DeepMind disse que o sistema não é “infalível contra a manipulação extrema de imagens”.
À medida que a tecnologia evolui, torna-se cada vez mais complexo saber a diferença entre imagens reais e imagens geradas artificialmente, como mostra o questionário, em inglês, AI ou Real da BBC Bitesize.
Como funcionam os robôs que criam imagens novas em segundos
Os geradores de imagens de IA se tornaram populares, como a famosa ferramenta Midjourney, que ostenta o número de mais de 14,5 milhões de usuários.
Eles permitem que as pessoas criem imagens em segundos, inserindo instruções de texto simples. Isso levanta questões sobre direitos autorais e propriedade em todo o mundo.
O Google possui seu próprio gerador de imagens chamado Imagen. O novo sistema de criação e verificação de marcas d’água só se aplica a imagens criadas com esta ferramenta.
O que são os robôs ‘desenhistas’ e por que eles viraram alvo de disputa
Invisível
Marcas d’água são normalmente um logotipo ou texto adicionado a uma imagem para mostrar a propriedade, além de parcialmente dificultar a cópia e uso da imagem sem permissão.
Elas estão nas imagens usadas no site da BBC News, que geralmente incluem uma marca d’água de direitos autorais no canto inferior esquerdo.
Mas esses tipos de marcas d’água não são adequados para identificar imagens geradas por Al porque podem ser facilmente editadas ou recortadas.
As empresas de tecnologia usam uma técnica chamada hashing para criar “impressões digitais” de vídeos de abuso conhecidos, para que possam identificá-los e removê-los rapidamente, caso comecem a se espalhar online.
Mas esses também podem ser corrompidos se o vídeo for cortado ou editado.
O sistema do Google cria uma marca d’água efetivamente invisível, que permitirá que as pessoas usem seu software para descobrir instantaneamente se a imagem é real ou feita por uma máquina.
Imperceptível: a imagem da esquerda tem marca d’água, a da direita não tem marca d’água
Google Deepmind via BBC
Pushmeet Kohli, chefe de pesquisa da DeepMind, disse à BBC que seu sistema modifica imagens de maneira tão sutil “que para você e para mim, para um ser humano, não muda nada”.
Ao contrário do hashing, disse ele, mesmo depois que a imagem é posteriormente cortada ou editada, o software da empresa ainda pode identificar a presença da marca d’água.
“Você pode mudar a cor, pode mudar o contraste, pode até redimensioná-lo… [e o DeepMind] ainda será capaz de identificar que é gerado por IA”, disse ele.
Mas ele alertou que este é um “lançamento experimental” do sistema e que a empresa precisa que pessoas o utilizem para entender o quão robusto ele é.
Pedófilos usam inteligência artificial para criar imagens sexualizadas de crianças
Padronização
Em Julho, o Google foi uma das sete empresas líderes em inteligência artificial a assinar um acordo voluntário nos Estados Unidos para garantir o desenvolvimento e utilização seguros da IA, que incluía garantir que as pessoas fossem capazes de detectar imagens feitas por computador por meio da implementação de marcas de água.
Kohli disse que essa foi uma medida que reflete esses compromissos, mas Claire Leibowicz, do grupo Partnership on AI, disse que é preciso haver mais coordenação entre as empresas.
“Acho que a padronização seria útil para a área”, disse ela.
“Existem diferentes métodos que estão sendo testados, precisamos monitorar o seu impacto – como podemos obter melhores relatórios sobre quais estão funcionando e para que fim?”
“Muitas instituições estão explorando métodos diferentes, o que acrescenta dois graus de complexidade, já que nosso ecossistema de informação depende de métodos diferentes para interpretar e definir se o conteúdo é gerado por IA”, disse ela.
A Microsoft e a Amazon estão entre as grandes empresas de tecnologia que, assim como o Google, se comprometeram a colocar marcas d’água em alguns conteúdos gerados por IA.
Além das imagens, a Meta publicou um artigo de pesquisa para seu gerador de vídeo inédito Make-A-Video, que afirma que marcas d’água serão adicionadas aos vídeos gerados para atender a demandas semelhantes de transparência em trabalhos gerados por IA.
A China proibiu completamente as imagens geradas por IA sem marcas d’água no início deste ano, com empresas como a Alibaba aplicando-as a criações feitas com a ferramenta de conversão de texto em imagem de sua divisão de nuvem, a Tongyi Wanxiang.
Vídeo ‘transforma’ menina de 9 anos em adulta para alertar sobre risco de exposição na internet
Como denunciar postagens no Instagram, TikTok e Kwai e em outras redes sociais