Enquanto a Índia está lutando com uma série de males sociais e discriminação com base em casta, credo, gênero e religião, um pesquisador indiano desenvolveu um novo algoritmo que ajudará a tornar a inteligência artificial menos tendenciosa durante o processamento de dados.
Os estudantes do Indian Institute of Technology Madras fizeram parte de um projeto de pesquisa internacional, liderado por um pesquisador da Queen’s University Belfast no Reino Unido que desenvolveu um novo algoritmo inovador para tornar a inteligência artificial (IA) mais justa e menos tendenciosa ao processar dados .
O Dr. Deepak Padmanabhan, pesquisador da Queen’s University Belfast e membro adjunto da faculdade no IIT Madras, lidera um projeto para resolver o problema de discriminação nos algoritmos de agrupamento.
A AI classifica os dados, agrupando-os para formar um número gerenciável de clusters, que são grupos de dados com características comuns. É muito mais confortável para uma organização analisar manualmente e selecionar ou rejeitar o grupo inteiro. No entanto, embora a IA possa economizar tempo, o processo geralmente é tendencioso em termos de raça, gênero, idade, religião e país de origem.
Foi relatado que nomes com som branco receberam 50% mais retornos de chamada do que aqueles com nomes com som preto. Estudos também sugerem que as taxas de retorno tendem a cair substancialmente para os trabalhadores na faixa dos 40 anos ou mais. Outra tendência discriminatória é a “penalidade da maternidade”, onde as mães que trabalham são prejudicadas no mercado de trabalho, enquanto os pais que trabalham se saem melhor, no que é conhecido como “bônus da paternidade”.
Nos últimos anos, foram desenvolvidas técnicas de “agrupamento justo”, que impedem o viés em um único atributo escolhido, como gênero. A equipe de pesquisa agora desenvolveu um método que, pela primeira vez, pode obter justiça em muitos atributos.
Falando sobre essa pesquisa, Savitha Abraham, aluna de doutorado do Departamento de Ciência da Computação e Engenharia do IIT Madras, disse: “A justiça nas técnicas de IA é importante em países em desenvolvimento, como a Índia. Esses países experimentam disparidades sociais e econômicas drásticas, e isso se reflete nos dados. ”
Savitha Abraham acrescentou: “O emprego de técnicas de IA diretamente em dados brutos resulta em idéias tendenciosas, que influenciam as políticas públicas, e isso pode ampliar as disparidades existentes. A adoção de métodos mais justos de IA é fundamental, especialmente no setor público, quando se trata de tais cenários. ”
Destacando o impacto potencial dessa pesquisa, o Dr. Padmanabhan disse: “Nosso algoritmo de agrupamento justo, chamado FairKM, pode ser invocado com qualquer número de atributos sensíveis especificados, levando a um processo muito mais justo. De certa forma, o FairKM dá um passo significativo em direção aos algoritmos que assumem o papel de garantir a imparcialidade na lista restrita, especialmente em termos de recursos humanos. Com um processo mais justo, os comitês de seleção podem se concentrar em outros critérios principais relacionados ao trabalho. ”
Padmanabhan acrescentou ainda: “O FairKM pode ser aplicado em vários cenários de dados nos quais a IA está sendo usada para ajudar na tomada de decisões, como policiamento pró-ativo para prevenção de crimes e detecção de atividades suspeitas. Acreditamos que isso marca um avanço significativo na construção de algoritmos justos de aprendizado de máquina que possam lidar com as demandas de nossa sociedade democrática moderna. ”