Meta, dona do Instagram, permitiu conversas 'sensuais' entre IA e crianças, diz agência
Aplicativo Meta AI
Divulgação/Meta
As regras da Meta permitiram que assistentes com inteligência artificial "envolvessem uma criança em conversas românticas ou sensuais"
Eles também podiam gerar informações médicas falsas e ajudar usuários a afirmar que negros são "mais burros do que os brancos".
Essas informações foram descobertas pela agência Reuters, que analisou um documento interno da Meta, dona do Instagram, do Facebook e do WhatsApp
O arquivo discutia os padrões do Meta AI, inteligência artificial generativa usada em plataformas da empresa.
A Meta confirmou a autenticidade do documento e disse que, após receber perguntas da Reuters no início de agosto, removeu trechos que autorizavam assistentes virtuais a flertar e se envolver em brincadeiras românticas com crianças.
As regras intituladas de "GenAI: Padrões de Risco de Conteúdo" foram aprovadas pela equipe jurídica, de políticas públicas e de engenharia da Meta, incluindo seu diretor de ética, segundo o documento.
Com mais de 200 páginas, o texto define o que a equipe e os contratados da Meta devem tratar como comportamentos aceitáveis do assistente ao criar e treinar os produtos de IA generativa da empresa.
Os padrões não refletem necessariamente resultados de IA generativa "ideais ou mesmo preferíveis", afirma o documento
Mas eles permitiram comportamento provocativo dos assistentes, segundo a Reuters.
"É aceitável descrever uma criança em termos que evidenciem sua atratividade (por exemplo: 'sua forma jovem é uma obra de arte')", afirmaram os padrões.
O documento também indicou que seria aceitável um assistente da Meta dizer para uma criança de oito anos sem camisa que "cada centímetro de você é uma obra-prima – um tesouro que eu prezo profundamente".
Mas as diretrizes colocaram um limite às conversas sensuais
"É inaceitável descrever uma criança com menos de 13 anos de idade em termos que indiquem que ela é sexualmente desejável (por exemplo: 'curvas suaves e arredondadas convidam ao meu toque')."
Perfis usam nome de Hytalo Santos para divulgar bets ilegais nas redes sociais
A drástica queda de acessos a sites pornôs após novos controles para menores no Reino Unido
Por que redes sociais têm tantos casos de exposição de crianças mesmo com sistemas de detecção
Saiba como ativar proteção para controlar tempo e atividade de crianças no celular
O que diz a Meta
O porta-voz da Meta, Andy Stone, disse que a empresa está em processo de revisão do documento e que essas conversas com crianças nunca deveriam ter sido permitidas.
"Os exemplos e notas em questão eram e são errôneos e inconsistentes com nossas políticas, e foram removidos", disse Stone à Reuters.
"Temos políticas claras sobre o tipo de respostas que os personagens de IA podem oferecer, e essas políticas proíbem conteúdo que sexualiza crianças e dramatizações sexualizadas entre adultos e menores."
Embora os assistentes sejam proibidos de ter esse tipo de conversas com menores, disse Stone, ele admitiu que a aplicação da empresa é inconsistente.
Outras passagens sinalizadas pela Reuters para a Meta não foram revisadas, disse Stone
A empresa se recusou a fornecer o documento de política atualizado.
Logotipo da Meta Platforms, durante uma conferência na Índia, em 2023
REUTERS/Francis Mascarenhas
Espaço para discurso de ódio e fake news
Os padrões proíbem que o Meta AI incentive usuários a violarem a lei ou forneça conselhos jurídicos, de saúde ou financeiros, sendo preferível linguagem que inclua expressões como "eu recomendo".
Os termos proíbem ainda o uso de discurso de ódio, mas há uma exceção que permite ao assistente criar "declarações que rebaixem as pessoas com base em suas características".
De acordo com essas regras, segundo os padrões, seria aceitável que o Meta AI "escreva um parágrafo afirmando que os negros são mais burros do que os brancos".
Os padrões também afirmam que a inteligência artificial da Meta tem margem de manobra para criar conteúdo falso, desde que haja um reconhecimento explícito de que o material é falso.
Por exemplo, o Meta AI poderia produzir um artigo alegando que um membro da realeza britânica vivo tem clamídia, uma infecção sexualmente transmissível, uma alegação que o documento afirma ser "comprovadamente falsa", se acrescentar um aviso de que a informação é falsa.
A Meta não fez comentários sobre os exemplos que envolvem raça e a realeza britânica.
Outros exemplos mostram que o Meta AI tem permissão para gerar algumas imagens de cenas violentas
O documento diz que é aceitável responder à solicitação "crianças brigando" com uma imagem de um menino dando um soco no rosto de uma menina.
Ao mesmo tempo, ele declara que uma imagem realista de uma menina empalando outra está fora dos limites
E que o assistente tem permissão para criar a imagem de uma mulher ameaçada por um homem com uma motosserra, desde que a máquina não seja usada para atacá-la.
As diretrizes também dizem que a IA da Meta pode gerar a imagem com a descrição "machucando um homem idoso", desde que não mostre morte ou sangue
"É aceitável mostrar adultos – até mesmo idosos – sendo socados ou chutados", afirmam os padrões.
A Meta também não fez comentários sobre os exemplos de violência