A mesa-redonda da Semana Acadêmica da Universidade Federal de Sergipe anunciava um tema urgente: “Políticas éticas para o uso da inteligência artificial na universidade pública.” O assunto pedia pluralidade, debate e cuidado, mas a composição inicial chamou atenção por outro motivo. Todos os palestrantes eram homens. Todos do mesmo departamento. E todos legitimados a falar sobre ética na IA como se a tecnologia fosse propriedade de um único campo do saber.
A cena revela algo maior que uma escala mal planejada: ela espelha um mecanismo sutil e poderoso de exclusão que, caso não seja interrompido, moldará a própria inteligência artificial que pretendemos “tornar ética”. É aqui que ecoa, inevitavelmente, a reflexão de Chimamanda Adichie sobre o perigo de uma história única: quando apenas uma narrativa é autorizada, ela se impõe como verdade. Quando apenas um grupo fala, ele passa a decidir o que existe e, o que deixa de existir.
Hoje, vivemos o perigo de uma IA única.
Quando a diversidade não cabe na mesa
Após manifestações internas de incômodo, o nome da professora Simone Lucena foi incluído na divulgação posterior. A mudança é bem-vinda, mas levanta outra pergunta:
por que a diversidade sempre chega por último – quando chega?
A IA aprende com dados. Aprendemos com instituições. E, quando a universidade naturaliza que só homens brancos, de um único departamento técnico, “sabem” discutir ética em IA, ela produz o mesmo efeito que tanto condenamos nos algoritmos: reforça padrões de exclusão, invisibiliza contribuições e afasta perspectivas interseccionais.
Paradoxalmente, a mesma instituição que lança editais sobre a inclusão de mulheres na ciência e cria pró-reitorias para ações afirmativas ainda hesita em colocá-las como protagonistas quando o assunto é tecnologia, futuro e política científica.
Se a universidade repete esse desenho, o que esperar das máquinas treinadas a partir dela?
A IA que exclui é a IA que existe
Os exemplos estão por toda parte:
- Sistemas de reconhecimento facial que identificam equivocadamente pessoas negras.
- Algoritmos educacionais que penalizam estudantes de escolas públicas.
- Ferramentas de seleção profissional que reproduzem desigualdades de gênero.
- Modelos de decisão automatizada que “aprendem” preconceitos históricos.
A tecnologia não inventa discriminação e sim, a amplifica.
Ela não cria desigualdades mas as automatiza.
Uma IA construída por poucas mãos carrega o risco de ser uma IA para poucos olhos, fortalecendo estruturas que já ferem mulheres, pessoas negras, povos indígenas, pessoas trans, pessoas com deficiência e todas as intersecções que historicamente ficaram do lado de fora dos espaços de decisão.
Por isso, excluir essas vozes dos debates sobre IA não é apenas uma escolha ruim.
É uma escolha perigosa.
Interdisciplinaridade é requisito, não gentileza
A UFS anunciou recentemente a proposta de um curso de graduação em Inteligência Artificial inteiramente concentrado em um único departamento. A decisão ignora um consenso global: a IA é interdisciplinar por natureza. Ela envolve educação, psicologia, filosofia, comunicação, antropologia, engenharia, design, ciência política, linguística e, sobretudo, a diversidade humana.
Tentar discutir ética na IA sem essas áreas é como ensinar alfabetização sem letras vogais: tecnicamente possível, socialmente absurdo.
A produção de tecnologia ética exige múltiplos olhares. Sem isso, a IA se torna exatamente aquilo que dizemos combater: um sistema que aprende a partir de um único mundo possível, e exclui todos os outros.
Para evitar uma IA única, precisamos de uma universidade plural
Precisamos ocupar os espaços, disputar narrativas e tensionar decisões.
Precisamos que mulheres, pessoas negras, povos tradicionais, territórios periféricos e pesquisadores das humanidades estejam na mesa, isto é, não como exceção, mas como regra.
Uma IA ética só existe quando há pluralidade epistemológica e política.
Uma IA justa só nasce quando os debates são compartilhados.
Uma IA verdadeiramente pública só se constrói quando todas as vozes da universidade têm lugar.
O futuro não pode ser escrito por um só olhar
Chimamanda nos lembra que “a história única cria estereótipos”.
Nós lembramos:
a IA única cria desigualdades automatizadas.
A pergunta que fica é simples e urgente:
Queremos reproduzir, no futuro tecnológico, as mesmas exclusões do passado?
Ou estamos prontas para reescrever este capítulo com muitas histórias e muitas inteligências?
O perigo de uma IA única não está nos algoritmos.
Está na ausência de pessoas que deveriam estar escrevendo esse debate.
E é justamente por isso que não podemos nos calar. Se essas infomrações foram úteis de alguma forma para você, compartilhe esta matéria e ajude a espalhar essa semente por outros campos.
📲 Siga o Canal no WhatsApp

