Como evitar preconceito e injustiça na inteligência artificial

Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Compartilhe

Inteligência artificial: Parte do sistema foi desenvolvido no Thomas J. Watson Research Center / Daniel Langer
Parte do sistema foi desenvolvida no Thomas J. Watson Research Center / Daniel Langer

A inteligência artificial pode reproduzir, inadvertidamente, preconceitos humanos.

Por exemplo, um sistema desenhado para apontar qual é o melhor perfil de dirigente de grande empresa, com base nas 500 maiores da Fortune, corre o risco de chegar à conclusão de que CEOs precisam ser homens brancos.

Mal aplicada, a computação cognitiva pode automatizar injustiça e discriminação, com efeitos profundos na vida das pessoas.

Por causa disso, é preocupação crescente das companhias ter ferramentas para garantir que sistemas inteligentes tomem decisões de acordo com regras de governança e com a legislação.

Ontem (19/9), a IBM lançou um serviço de software chamado Trust and Transparency (confiança e transparência), para detectar vieses e explicar como a inteligência artificial decide.

“É importante ressaltar que a tecnologia revela quais parâmetros que a inteligência artificial usa para chegar às recomendações de decisões”, afirma Alexandre Dietrich, líder de IBM Watson Brasil. “Esse é um primeiro passo bastante importante, já que, no mundo corporativo, temos de explicar porque as decisões de negócios foram tomadas e quais os caminhos que seguimos para chegar nelas.”

O serviço roda na nuvem e permite gerenciar sistemas em plataformas de outros fornecedores, além do Watson.

Colaboração

Além disso, a IBM decidiu oferecer à comunidade de código aberto um conjunto de ferramentas para detecção e mitigação de viés, para incentivar a colaboração a respeito do tema.

Segundo relatório da empresa, apesar de 82% das empresas planejarem adotar inteligência artificial:

  • 60% temem ser penalizadas por decisões dos sistemas; e
  • 63% não possuem colaboradores com habilidades para gerenciar com confiança a tecnologia.

O serviço da IBM foi desenvolvido para detectar decisões com viés no momento em que são tomadas, apontando resultados injustos no momento em que ocorrem. Também recomenda dados a serem acrescentados ao modelo para mitigar o viés.

“Regulações como GDPR e LGPD apenas reforçam esse cenário de preocupação com uso dos dados e a IBM está sendo pioneira em abrir a caixa-preta da inteligência artificial”, complementa Dietrich.

GPDR é a lei de proteção de dados pessoais europeia e LGPD é a brasileira.


Compartilhe
Previous Article

Por que a inteligência artificial veio para ficar

Next Article

Associação Brasileira de Bancos premia fintechs

You might be interested in …

Romero (e.) e Ciuffo (c.) falam sobre cloud kitchens / inova.jor

Pandemia incentiva crescimento de cloud kitchens

Compartilhe

CompartilheA pandemia de covid-19 reforçou a expansão das cloud kitchens, que preparam refeições para entregas. No episódio mais recente do inova.jor cast, Alexandre Romero, diretor Comercial, de Marketing e Novos Negócios da Engefood, e de […]


Compartilhe
Evelise Canali, da Mageda, e Pedro Lima, da AP Ponto, conversam sobre como ter sucesso na jornada da transformação digital no inova.jor cast

Pandemia acelera a transformação digital

Compartilhe

CompartilheA pandemia acelerou projetos relacionados à transformação digital. Evelise Canali, sócia fundadora da Mageda, e Pedro Lima, gerente de tecnologia da informação da AP Ponto, conversaram com o jornalista Renato Cruz, no inova.jor cast, sobre […]


Compartilhe