Um estudo conduzido pela Universidade de Oxford acendeu um alerta global ao apontar que respostas geradas pelo ChatGPT tendem a reproduzir estereótipos regionais no Brasil, associando o Sudeste a maiores níveis de inteligência, beleza e produção cultural, enquanto Norte e Nordeste aparecem de forma sistematicamente inferiorizada.
A pesquisa analisou cerca de 20,3 milhões de respostas produzidas pela inteligência artificial em diferentes contextos e identificou padrões recorrentes que refletem vieses históricos ligados a desigualdades regionais, raciais e socioeconômicas.
O estudo mostra que a ferramenta tecnológica faz a reprodução sistemática de vieses discriminatórios presentes nos dados de treinamento, o que, na prática, resulta em um forte preconceito estrutural automatizado contra determinadas regiões, como Norte e Nordeste.
Em termos técnicos e acadêmicos, o estudo descreve isso como viés algorítmico, mas, traduzindo para o leitor comum, trata-se de preconceito porque hierarquiza pessoas e territórios com base em estereótipos históricos, associando valor intelectual e cultural a recortes regionais. O estudo evidencia, portanto, um preconceito robusto nas respostas analisadas, segundo constatação feita pelos pesquisadores e decorre da forma como a inteligência artificial absorve e replica desigualdades já existentes na sociedade.
Segundo os pesquisadores, quando estimulada a comparar regiões brasileiras ou a descrever características humanas e culturais, a IA frequentemente reforça narrativas tradicionais que colocam o Sudeste como centro do desenvolvimento intelectual e cultural do país, enquanto reduz outras regiões a imagens simplificadas ou negativas, ignorando sua diversidade, produção científica, artística e social.
O levantamento destaca que esses vieses discriminatórios não surgem de forma espontânea, mas são resultado dos dados com os quais os modelos são treinados, majoritariamente produzidos em contextos que historicamente concentram poder econômico, visibilidade midiática e produção acadêmica. Para os autores, o problema vai além da tecnologia e revela como desigualdades estruturais acabam sendo recicladas por sistemas automatizados, ganhando uma aparência de neutralidade técnica que pode ampliar discriminações já existentes.
O estudo ressalta ainda que, ao serem utilizados em larga escala para educação, comunicação, atendimento ao público e tomada de decisões, modelos de linguagem podem influenciar percepções sociais e reforçar preconceitos, caso não haja mecanismos robustos de correção e diversidade nos dados de treinamento.
Os pesquisadores defendem maior transparência no desenvolvimento de inteligências artificiais, auditorias independentes e a inclusão de perspectivas regionais diversas, especialmente de países do Sul Global, para evitar que tecnologias globais continuem repetindo velhos vícios sob uma roupagem moderna.
O post ChatGPT inferioriza brasileiros do Norte e Nordeste apareceu primeiro em Diário do Pará.


