Rio de Janeiro, 28 de Abril de 2025

IA: Google relata escala de reclamações sobre conteúdo terrorista

A companhia também afirmou que recebeu dezenas de relatórios de usuários alertando que seu programa de IA, Gemini, está sendo usado para criar material de abuso infantil.

Quinta, 06 de Março de 2025 às 14:31, por: CdB

A companhia também afirmou que recebeu dezenas de relatórios de usuários alertando que seu programa de IA, Gemini, está sendo usado para criar material de abuso infantil.

Por Redação, com Reuters – de São Francisco

O Google informou às autoridades australianas que recebeu mais de 250 reclamações em todo o mundo, ao longo de quase um ano, envolvendo o uso de seu software de inteligência artificial na criação de conteúdo relacionado a terrorismo “deepfake”.

google-1.jpeg
Google divulga escala de reclamações sobre conteúdo terrorista feito com IA

A companhia também afirmou que recebeu dezenas de relatórios de usuários alertando que seu programa de IA, Gemini, está sendo usado para criar material de abuso infantil, de acordo com a Comissão Australiana de Segurança Eletrônica.

De acordo com a legislação australiana, as empresas de tecnologia devem fornecer periodicamente à Comissão de Segurança Eletrônica informações sobre os esforços de minimização de danos ou correm o risco de serem multadas. O período do relatório abrangeu abril de 2023 a fevereiro de 2024.

Desde que o ChatGPT, criado pela OpenAI se tornou popular no mundo no final de 2022, órgãos reguladores têm cobrado melhores proteções para que a IA não possa ser usada em atos de terrorismo, fraude, pornografia deepfake e outros abusos.

A Comissão Australiana de Segurança Eletrônica chamou a divulgação do Google de “primeiro insight mundial” sobre como os usuários podem estar explorando a tecnologia para produzir conteúdo ilegal.

“Isso ressalta como é fundamental que as empresas que desenvolvem produtos de IA incorporem e testem a eficácia de mecanismos de proteção para evitar que esse tipo de material seja gerado”, disse a comissária de segurança eletrônica, Julie Inman Grant, em comunicado.

Denúncias de usuários

No levantamento, o Google disse que recebeu 258 denúncias de usuários sobre suspeitas de conteúdo terrorista ou extremista violento deepfake gerado por IA usando o Gemini, e outras 86 denúncias alegando material de exploração ou abuso infantil gerado por IA. A empresa não informou quantas das reclamações foram verificadas, de acordo com o órgão regulador.

Um porta-voz do Google disse que a empresa não permite a geração ou distribuição de conteúdo relacionado à facilitação de extremismo violento ou terror, exploração ou abuso infantil ou outras atividades ilegais.

– Estamos empenhados em expandir nossos esforços para ajudar a manter os australianos seguros online – disse o porta-voz por email. “O número de denúncias de usuários do Gemini que fornecemos à eSafety representa o volume global total de denúncias de usuários, e não violações confirmadas da política.”

O Google usou um sistema de correspondência automática de imagens recém-carregadas com imagens já conhecidas para identificar e remover material de abuso infantil feito com o Gemini. Mas a empresa não utilizou a mesma técnica para eliminar material terrorista ou extremista violento gerado com sua tecnologia de IA, acrescentou o órgão regulador.

Edições digital e impressa