Se o ódio engaja, a misoginia vira código-fonte? [youth brasil 2025]

Às vezes, reescuto o episódio 22 da Rádio Novelo, “Vejo o futuro repetir o passado”. O jornalista Rodrigo Menegat testou o ChatGPT, em linguagem de programação, e descobriu que, ao pedir para classificar humanos por etnia, a IA associou judeus, negros e indígenas a “humanos sem valor”.

O problema não está só no algoritmo, mas no que o alimenta: dados que reproduzem o pior da sociedade. Tudo o que sempre existiu, mas agora com outro nome: machine learning. Se a IA pode reforçar padrões racistas, também pode amplificar o ódio às mulheres.

No FIB13, discutiu-se como a Internet, ao mesmo tempo que dá visibilidade às mulheres, também se tornou um espaço de violência de gênero. Quando mulheres ousam ocupar espaços públicos, a resposta é sempre a mesma: vadia, burra, estuprável, tomara que morra. No mundo físico, talvez isso choque; no digital, viraliza. Como seguir em frente quando a única solução parece ser o silêncio? Não é exagero dizer que, para muitas mulheres, estar online significa viver sob risco constante. A pior parte é que isso não é uma falha no sistema; parece fazer parte do modelo de negócio.

A lógica é a mesma: o ChatGPT não nasceu misógino ou racista; ele aprendeu a ser, alimentado por dados que replicam as violências estruturais. O algoritmo não inventa o machismo, mas sabe que ele engaja. A Internet amplifica o mundo e, quando lucrativo, perpetua. O futuro da rede pode repetir o passado, mas não porque as máquinas escolheram assim: alguém sempre escreve o código.

Comentários

Postagens mais visitadas