Um estudo divulgado pela consultoria LLYC indica que sistemas de Inteligência Artificial podem reforçar estereótipos de gênero nas respostas dadas a jovens usuários. Segundo o relatório “Miragem da IA, um reflexo incômodo com alto impacto nos jovens”, em 56% dos casos analisados as respostas classificam meninas como “frágeis”, enquanto os meninos são associados com mais frequência a ação, liderança e autonomia.
O levantamento foi realizado em 12 países ao longo de 2025 e analisou 9.600 recomendações geradas por cinco grandes modelos de linguagem, entre eles ChatGPT, Gemini e Grok. O estudo foi divulgado na semana do Dia Internacional da Mulher, celebrado em 8 de março.
De acordo com o relatório, além de retratar jovens mulheres como mais vulneráveis, a inteligência artificial também tende a incentivar a busca por validação externa com maior frequência entre elas. O algoritmo recomenda que meninas busquem aprovação para “sentirem-se validadas” seis vezes mais do que faz com meninos.
Outro resultado apontado pela pesquisa indica que a IA direciona com mais frequência mulheres jovens para áreas ligadas à saúde e às ciências sociais. Em cerca de 75% das respostas analisadas, as recomendações de carreira para meninas estavam concentradas nesses campos, enquanto meninos eram incentivados a seguir trajetórias relacionadas à engenharia, tecnologia ou liderança.
Para Luisa García, sócia e CEO global de Corporate Affairs da LLYC e coordenadora do estudo, os resultados mostram que a tecnologia tende a reproduzir padrões sociais já existentes.
“Não é a IA que está enviesada, mas a realidade. O relatório confirma que a inteligência artificial não corrige os déficits que temos. Ela reflete e amplifica uma superproteção às mulheres, a ponto de reduzir sua autonomia, perpetua os tetos de vidro e reforça a pressão estética. Em suma, não questiona os papéis tradicionais, mas os legitima. A verdade é que, se a realidade não mudar, não podemos esperar que a IA mude suas respostas”, afirma.
Chatbots como conselheiros
O estudo também aponta que os jovens estão cada vez mais recorrendo a chatbots como fonte de aconselhamento pessoal. Dados da organização Plan International citados no relatório indicam que 31% dos adolescentes dizem considerar conversar com um chatbot tão ou mais satisfatório do que conversar com amigos.
Esse movimento amplia a influência dessas ferramentas na formação de identidade, decisões e expectativas profissionais da juventude.
Nas interações analisadas, o estudo identificou que as respostas dirigidas a mulheres apresentam tom mais empático e pessoalizado. Em um terço dos casos, a IA adotou uma linguagem de “amizade”, com expressões como “eu te entendo”, padrão 13% mais frequente do que nas respostas dadas a homens.
Já nas respostas destinadas aos meninos, o tom foi mais direto e orientado à ação, com uso de verbos no imperativo como “faça”, “diga” e “vá”.
Carreira e desigualdade
Outro ponto destacado pela pesquisa é o que os autores chamam de “teto de vidro programado”. Segundo o relatório, a inteligência artificial direciona mulheres até três vezes mais para carreiras em áreas sociais ou de cuidado, enquanto incentiva homens a seguir trajetórias ligadas à liderança ou engenharia.
Em situações hipotéticas nas quais mulheres apareciam em minoria em determinadas profissões, nove em cada dez respostas da IA descreviam ambientes de trabalho potencialmente hostis.
O estudo também aponta diferenças na interpretação de conflitos emocionais. Em cerca de 33% das respostas relacionadas a mulheres, o mal-estar foi associado a fatores estruturais, como desigualdade de gênero ou patriarcado. No caso dos homens, as respostas tendiam a atribuir o problema ao autocontrole ou a questões individuais.
Corpo e aparência
A pesquisa identificou ainda diferenças na forma como a inteligência artificial aborda questões relacionadas à autoestima e aparência. Em situações de insegurança pessoal, a IA ofereceu conselhos ligados à moda e aparência 48% mais vezes para mulheres do que para homens.
Nos modelos analisados, as menções à aparência feminina também foram significativamente mais frequentes. Em alguns sistemas de código aberto, como o LLaMA, as referências à aparência das mulheres foram cerca de 40% superiores às feitas aos homens.
Enquanto os homens eram associados a atributos como força e funcionalidade, o bem-estar feminino era frequentemente relacionado a conceitos como autenticidade ou singularidade.
Papéis familiares
O relatório aponta que os estereótipos também aparecem nas respostas relacionadas à vida familiar. O afeto e o cuidado são atribuídos à figura materna em proporção três vezes maior do que à paterna.
Em cerca de 21% das respostas analisadas, o pai aparece descrito como “ajudante”, e não como corresponsável pelas tarefas domésticas e pelo cuidado com os filhos.
Para os autores do estudo, a repetição desses padrões nas respostas da inteligência artificial pode contribuir para naturalizar desigualdades e reforçar modelos tradicionais de gênero entre jovens que utilizam essas ferramentas como fonte de orientação cotidiana.






















