Os perigos de uma IA única

De
Dra. Eleonora Vaccarezza - Psicóloga
Dra. Eleonora Vaccarezza, PhD em Psicologia, é professora, pesquisadora e palestrante especializada em Racismo, Subjetividades e Saúde Mental. Com uma vasta experiência, ela compartilha seus conhecimentos...

A mesa-redonda da Semana Acadêmica da Universidade Federal de Sergipe anunciava um tema urgente: “Políticas éticas para o uso da inteligência artificial na universidade pública.” O assunto pedia pluralidade, debate e cuidado, mas a composição inicial chamou atenção por outro motivo. Todos os palestrantes eram homens. Todos do mesmo departamento. E todos legitimados a falar sobre ética na IA como se a tecnologia fosse propriedade de um único campo do saber.

A cena revela algo maior que uma escala mal planejada: ela espelha um mecanismo sutil e poderoso de exclusão que, caso não seja interrompido, moldará a própria inteligência artificial que pretendemos “tornar ética”. É aqui que ecoa, inevitavelmente, a reflexão de Chimamanda Adichie sobre o perigo de uma história única: quando apenas uma narrativa é autorizada, ela se impõe como verdade. Quando apenas um grupo fala, ele passa a decidir o que existe e, o que deixa de existir.

Hoje, vivemos o perigo de uma IA única.

Quando a diversidade não cabe na mesa

Após manifestações internas de incômodo, o nome da professora Simone Lucena foi incluído na divulgação posterior. A mudança é bem-vinda, mas levanta outra pergunta:
por que a diversidade sempre chega por último – quando chega?

A IA aprende com dados. Aprendemos com instituições. E, quando a universidade naturaliza que só homens brancos, de um único departamento técnico, “sabem” discutir ética em IA, ela produz o mesmo efeito que tanto condenamos nos algoritmos: reforça padrões de exclusão, invisibiliza contribuições e afasta perspectivas interseccionais.

Paradoxalmente, a mesma instituição que lança editais sobre a inclusão de mulheres na ciência e cria pró-reitorias para ações afirmativas ainda hesita em colocá-las como protagonistas quando o assunto é tecnologia, futuro e política científica.

Se a universidade repete esse desenho, o que esperar das máquinas treinadas a partir dela?

A IA que exclui é a IA que existe

Os exemplos estão por toda parte:

  • Sistemas de reconhecimento facial que identificam equivocadamente pessoas negras.
  • Algoritmos educacionais que penalizam estudantes de escolas públicas.
  • Ferramentas de seleção profissional que reproduzem desigualdades de gênero.
  • Modelos de decisão automatizada que “aprendem” preconceitos históricos.

A tecnologia não inventa discriminação e sim, a amplifica.
Ela não cria desigualdades mas as automatiza.

Uma IA construída por poucas mãos carrega o risco de ser uma IA para poucos olhos, fortalecendo estruturas que já ferem mulheres, pessoas negras, povos indígenas, pessoas trans, pessoas com deficiência e todas as intersecções que historicamente ficaram do lado de fora dos espaços de decisão.

Por isso, excluir essas vozes dos debates sobre IA não é apenas uma escolha ruim.
É uma escolha perigosa.

Interdisciplinaridade é requisito, não gentileza

A UFS anunciou recentemente a proposta de um curso de graduação em Inteligência Artificial inteiramente concentrado em um único departamento. A decisão ignora um consenso global: a IA é interdisciplinar por natureza. Ela envolve educação, psicologia, filosofia, comunicação, antropologia, engenharia, design, ciência política, linguística e, sobretudo, a diversidade humana.

Tentar discutir ética na IA sem essas áreas é como ensinar alfabetização sem letras vogais: tecnicamente possível, socialmente absurdo.

A produção de tecnologia ética exige múltiplos olhares. Sem isso, a IA se torna exatamente aquilo que dizemos combater: um sistema que aprende a partir de um único mundo possível, e exclui todos os outros.

Para evitar uma IA única, precisamos de uma universidade plural

Precisamos ocupar os espaços, disputar narrativas e tensionar decisões.
Precisamos que mulheres, pessoas negras, povos tradicionais, territórios periféricos e pesquisadores das humanidades estejam na mesa, isto é, não como exceção, mas como regra.

Uma IA ética só existe quando há pluralidade epistemológica e política.
Uma IA justa só nasce quando os debates são compartilhados.
Uma IA verdadeiramente pública só se constrói quando todas as vozes da universidade têm lugar.

O futuro não pode ser escrito por um só olhar

Chimamanda nos lembra que “a história única cria estereótipos”.
Nós lembramos:
a IA única cria desigualdades automatizadas.

A pergunta que fica é simples e urgente:

Queremos reproduzir, no futuro tecnológico, as mesmas exclusões do passado?
Ou estamos prontas para reescrever este capítulo com muitas histórias e muitas inteligências?

O perigo de uma IA única não está nos algoritmos.
Está na ausência de pessoas que deveriam estar escrevendo esse debate.

E é justamente por isso que não podemos nos calar. Se essas infomrações foram úteis de alguma forma para você, compartilhe esta matéria e ajude a espalhar essa semente por outros campos.

Curtiu? Fique por dentro das principais notícias através do nosso ZAP

📲 Siga o Canal no WhatsApp
Siga também nosso Instagram: 📸 @istoearacaju

Compartilhe esta notícia
Dra. Eleonora Vaccarezza, PhD em Psicologia, é professora, pesquisadora e palestrante especializada em Racismo, Subjetividades e Saúde Mental. Com uma vasta experiência, ela compartilha seus conhecimentos sobre temas fundamentais para a sociedade contemporânea.