Siga-nos

Perfil

Expresso

Sociedade

IBM cria um programa contra o preconceito na Inteligência Artificial

Tim Boyle/Getty

Porque os algoritmos também tomam por vezes decisões baseadas em critérios sexistas e racistas

Luís M. Faria

Jornalista

Com um número cada vez maior de decisões importantes a serem tomadas pela Inteligência Artificial, ou com a ajuda dela, é necessário garantir que esses sistemas não enfermam dos mesmos vícios de preconceito que caracterizam os seres humanos. Seja ao decidir um empréstimo bancário ou a avaliar a perigosidade de alguém num aeroporto, devem ser evitados critérios racistas. Quem diz racistas diz sexistas, nesses e noutros tipos de decisão.

Sabendo-se que os algoritmos responsáveis por essas decisões são geralmente desenvolvidos e testados sobre certos modelos de pessoas - não por acaso, a tecnologia de reconhecimento facial tem mais dificuldade em reconhecer rostos de negros, por exemplo - convém introduzir fatores corretivos que eliminem o mais possível os efeitos discriminatórios.

Atentas a estes problemas, várias empresas de tecnologia já convidam os seus programadores a frequentar aulas de formação ética. Agora, a IBM acaba de introduzir um serviço automático, o AI Fairness 360. Baseado na cloud e com código-fonte aberto, a sua função é a de analisar sistemas de Inteligência Artificial com o objetivo de detetar preconceitos.

Na sua base encontram-se 30 "métricas de equidade" e 9 "algoritmos de mitigação de preconceito", tudo em versões de ponta. Além de analisar, o serviço propõe soluções, tais como introdução de dados adicionais ou correções nos algoritmos. As suas áreas privilegiadas incluem os sistemas de saúde, os sistemas de educação e as empresas financeiras, entre outras. Para garantir que um instrumento que visa atingir maior rapidez e objetividade nas decisões não se torna, afinal, mais uma forma de amplificar os preconceitos.