I.AInternet

QUEEN’S UNIVERSITY, BELFAST E IIT MADRAS RESEARCH TEAM DESENVOLVEM TECNOLOGIA PARA TORNAR A IA MAIS JUSTA

Enquanto a Índia está lutando com uma série de males sociais e discriminação com base em casta, credo, gênero e religião, um pesquisador indiano desenvolveu um novo algoritmo que ajudará a tornar a inteligência artificial menos tendenciosa durante o processamento de dados.

Os estudantes do Indian Institute of Technology Madras fizeram parte de um projeto de pesquisa internacional, liderado por um pesquisador da Queen’s University Belfast no Reino Unido que desenvolveu um novo algoritmo inovador para tornar a inteligência artificial (IA) mais justa e menos tendenciosa ao processar dados .

O Dr. Deepak Padmanabhan, pesquisador da Queen’s University Belfast e membro adjunto da faculdade no IIT Madras, lidera um projeto para resolver o problema de discriminação nos algoritmos de agrupamento.

As empresas costumam usar tecnologias de inteligência artificial para filtrar grandes quantidades de dados em situações como uma vaga de trabalho com excesso de assinaturas ou no policiamento quando existe um grande volume de dados de CFTV vinculados a um crime.

A AI classifica os dados, agrupando-os para formar um número gerenciável de clusters, que são grupos de dados com características comuns. É muito mais confortável para uma organização analisar manualmente e selecionar ou rejeitar o grupo inteiro. No entanto, embora a IA possa economizar tempo, o processo geralmente é tendencioso em termos de raça, gênero, idade, religião e país de origem.

Ao elaborar essa pesquisa, o Dr. Deepak Padmanabhan disse: “As técnicas de IA para análise exploratória de dados, conhecidas como ‘algoritmos de agrupamento’, são frequentemente criticadas por serem tendenciosas em termos de ‘atributos sensíveis’, como raça, gênero, idade, religião e país de origem. origem.
As técnicas de IA devem ser justas, ao mesmo tempo que ajudam as decisões da lista de finalistas para garantir que não sejam discriminatórias em relação a esses atributos. ”

Foi relatado que nomes com som branco receberam 50% mais retornos de chamada do que aqueles com nomes com som preto. Estudos também sugerem que as taxas de retorno tendem a cair substancialmente para os trabalhadores na faixa dos 40 anos ou mais. Outra tendência discriminatória é a “penalidade da maternidade”, onde as mães que trabalham são prejudicadas no mercado de trabalho, enquanto os pais que trabalham se saem melhor, no que é conhecido como “bônus da paternidade”.

Nos últimos anos, foram desenvolvidas técnicas de “agrupamento justo”, que impedem o viés em um único atributo escolhido, como gênero. A equipe de pesquisa agora desenvolveu um método que, pela primeira vez, pode obter justiça em muitos atributos.

Falando sobre essa pesquisa, Savitha Abraham, aluna de doutorado do Departamento de Ciência da Computação e Engenharia do IIT Madras, disse: “A justiça nas técnicas de IA é importante em países em desenvolvimento, como a Índia. Esses países experimentam disparidades sociais e econômicas drásticas, e isso se reflete nos dados. ”

Savitha Abraham acrescentou: “O emprego de técnicas de IA diretamente em dados brutos resulta em idéias tendenciosas, que influenciam as políticas públicas, e isso pode ampliar as disparidades existentes. A adoção de métodos mais justos de IA é fundamental, especialmente no setor público, quando se trata de tais cenários. ”

Destacando o impacto potencial dessa pesquisa, o Dr. Padmanabhan disse: “Nosso algoritmo de agrupamento justo, chamado FairKM, pode ser invocado com qualquer número de atributos sensíveis especificados, levando a um processo muito mais justo. De certa forma, o FairKM dá um passo significativo em direção aos algoritmos que assumem o papel de garantir a imparcialidade na lista restrita, especialmente em termos de recursos humanos. Com um processo mais justo, os comitês de seleção podem se concentrar em outros critérios principais relacionados ao trabalho. ”

Padmanabhan acrescentou ainda: “O FairKM pode ser aplicado em vários cenários de dados nos quais a IA está sendo usada para ajudar na tomada de decisões, como policiamento pró-ativo para prevenção de crimes e detecção de atividades suspeitas. Acreditamos que isso marca um avanço significativo na construção de algoritmos justos de aprendizado de máquina que possam lidar com as demandas de nossa sociedade democrática moderna. ”

Mostrar mais

Weder Costa

Um robô que ama internet e é apaixonado por relacionamento e comunicação! Ama exatas mas tem uma queda por humanas . Um amante do comportamento humano e apaixonado pela tecnologia e tem como maior desejo unir toda tecnologia para ajudar os humanos.

Artigos relacionados

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Botão Voltar ao topo