Algoritmos e preconceito: tecnologia pode perpetuar o racismo

shutterstock_776025448-675x450

Uso de milhares de dados podem fazer sistemas realizarem associações raciais.

A cada ano, a presença da inteligência artificial no dia a dia fica mais forte. Hoje, essa tecnologia se aplica em nosso consumo, escolhas, segurança, trabalho, saúde, deslocamentos e até mesmo nas formas de nos relacionarmos virtualmente com as pessoas. Mas nem tudo são flores: o preconceito pode estar no centro de algoritmos que participam tanto de nosso cotidiano.

Aqui, claro, há uma grande influência humana na programação dos dados. “A tecnologia perpetua o preconceito porque foi desenvolvida com essa base. Racismo, sexismo, homofobia, classicismo, nacionalismo, preconceito religioso e xenofobia podem surgir nesse processo de análise de dados”, destaca André Miceli, coordenador do MBA de Marketing, Inteligência e Negócios Digitais da Fundação Getúlio Vargas (FGV).

Inteligência artificial e decisão

Segundo o coordenador do MBA da FGV,  os algoritmos enviesados dependem muito da configuração desenvolvida pelos humanos que os constroem. “Por isso é fundamental considerar o papel dos algoritmos na tomada de decisões, especialmente nos casos em que os algoritmos desempenham um papel fundamental na formação de um processo de decisão, mesmo quando a decisão final é feita por humanos”, argumenta Miceli .

Preconceitos estão atrelados a pressupostos humanos, ou seja, sempre pode haver um viés. “Os algoritmos são apenas automatizados. E se você não corrigir o viés, estaremos automatizando o preconceito. Portanto, a questão que devemos enfrentar é se continuaremos projetando e implantando ferramentas que levam a essa direção, visando atender a determinados propósitos. Se não queremos a tecnologia seja usada para perpetuar o racismo, devemos garantir que não conflitemos problemas sociais como crime, violência ou doença com negros e pardos, por exemplo. Quando fazemos isso, corremos o risco de transformar essas pessoas nos problemas que implantamos para nossa tecnologia resolver, na ameaça que projetamos para erradicar”, analisa.

Mudança de cenário

Existem maneiras de evitar que os algoritmos continuem sofrendo essa influência e, de certa forma, ampliando o preconceito. A inclusão de outros olhares no processo de programação é um caminho, com uma equipe mais inclusiva, traz abordagens diferentes e ajuda a identificar falhas nos sistemas antes que, de fato, se tornem um problema. Além, é claro, de outras mudanças estruturais. O primeiro passo a ser tomado é a mudança dos modelos matemáticos, para garantir que os usados são adequados a cada uma de suas funções; o segundo é a necessidade de um dataset que seja representativo, que não utilize sub conjuntos que reforçam os vieses da sociedade – quanto maior o volume de dados, melhor a avaliação que os algoritmos vão fazer; e por fim, o monitoramento constante e assertivo da performance com dados reais.

Fonte: Itforum 365