Microsoft propõe padrão técnico para identificar imagens falsas geradas por IA
A Microsoft definiu um projeto técnico para tentar facilitar a identificação de imagens falsas em um momento que a distância entre real e fictício está cada vez menor. Os avanços da geração de imagens por inteligência artificial ainda são visíveis por aqueles que se apegam aos mínimos detalhes, mas as plataformas estão aprimorando suas capacidades de contornar os erros comuns e dificultando o reconhecimento da tecnologia.
Assim, a empresa de tecnologia propôs um padrão para analisar a veracidade de uma imagem com embasamento técnico. A pesquisa feita pelo time de segurança de IA da multinacional avaliou 60 combinações dos diferentes métodos de verificação, como "proveniência, marca d'água e impressão digital"; a ideia é que empresas possam utilizar as combinações que mais lhe convém para enviar alertas aos usuários através de sons, por exemplo.
"Analisamos como essas ferramentas operam em diferentes modalidades e avaliamos modelos de ameaças relevantes, categorias de ataques e fluxos de trabalho do mundo real, abrangendo captura, edição, distribuição e verificação", diz a Microsoft na descrição da pesquisa.
Mas o produto não definirá exatamente o que é verdadeiro e o que é falso. A ideia é que usuários utilizem os métodos estudados pela Microsoft para descobrirem com mais facilidade a origem de cada imagem. De forma resumida, os metadados analisados indicarão se o conteúdo que está sendo visto foi manipulado ou está sendo apresentado de maneira integral aos consumidores.
O Grok, IA do X, já possui um sistema de verificação próprio que consiste no recolhimento de informações de outros sites para comprovar veracidade. Mas a Microsoft quer direcionar a responsabilidade aos metadados de uma imagem. Eric Horvitz, diretor científico da empresa, reconheceu que o método pode ser identificado como autorregulador, mas garantiu que a intenção é posicionar a Microsoft como uma fonte confiável no mercado.
Debates sobre regulação motivam pesquisa
Ainda de acordo com Horvitz, os esforços direcionados para encontrar uma forma de verificação confiável foram motivados pelos crescentes debates em torno da regulamentação de IA no país. Um dos exemplos é a iminente implementação de uma lei na Califórnia que exigirá transparência de plataformas de IA e deve entrar em vigor nos EUA em 2 de agosto deste ano.
Horvitz, entretanto, não quis comentar ao MIT Technology Review sobre a inserção do projeto nas ferramentas Copilot e Azure, com funções que permitem a geração de imagens por IA. Mas ele deixou clara a intenção da Microsoft de atuar como reguladora neste momento definidor para o futuro das companhias engajadas com a tecnologia do momento.
Simultaneamente, empresas como OpenAI, Meta e Anthropic estão em caminhos diferentes para garantir uma boa reputação. Os discursos de Donald Trump contrários à regulamentação de IA são apoiados por líderes como Mark Zuckerberg e Greg Brockman, presidente da OpenAI, mas a Anthropic se posiciona no lado oposto para promover debates que favoreçam políticas de regulação e segurança nas plataformas.
Nenhum comentário disponível no momento.
Comentários
Deixe seu comentário abaixo: