A Inteligência Artificial foi criada, supostamente, para tornar a nossa vida mais fácil, melhorando múltiplos campos. Porém… e se não fosse assim? E se a IA estivesse discriminando um determinado coletivo? Um estudo afirma que a IA está sim discriminando os países com menos recursos.

O estudo foi feito pelo laboratório de Inteligência Artificial do Facbeook, e mostra que os algoritmos de reconhecimento de objetos funcionam pior na hora de identificar artigos de países pobres. Para chegar a essa conclusão, os pesquisadores testaram cinco algoritmos de reconhecimento de objetos populares: Microsoft Azure, Clarifai, Google Cloud Vision, IBM Watson e Amazon Rekognition.

Foram analisados 117 categorias de objetos, onde também foi levado em consideração os objetos existentes em lares com diferentes níveis de receitas e localizações geográficas. Assim, os pesquisadores descobriram que os algoritmos cometiam aproximadamente 10% a mais de erros para identificar itens pertencentes a lares com menores recursos.

De fato, os algoritmos eram entre 15% e 20% mais preciso identificando os objetos dos Estados Unidos em comparação com os itens de Burkina Faso ou Somália. A IA custa muito mais para identificar os itens da dispensa das Filipinas do que as compras dos norte-americanos.

 

 

Por que essa discriminação?

 

 

Os autores do estudo acreditam que existem vários motivos para tal discriminação acontecer. A primeira tem muito a ver com as imagens utilizadas para treinar a IA, já que correspondem com produtos utilizados em países desenvolvidos e não nos países pobres. A segunda razão está relacionada com o fato da IA não reconhecer as diferenças entre as diferentes culturas.

Por exemplo, o tomate frito pode variar dependendo do país ou do continente. O mesmo acontece com o sabão, que pode ser comercializado em barra, em pó ou em líquido.

 

 

A solução aqui seria treinar a IA com imagens muito mais variadas e de todo o mundo. Não se esqueça que a maioria das gigantes de tecnologia são dos Estados Unidos, e contam com um nível de vida muito mais alto do que o existente na África, por exemplo.

Infelizmente, não é uma novidade ver uma IA discriminatória. O reconhecimento facial é um exemplo disso, pois funciona pior na hora de identificar rostos femininos da raça negra. Será que a turma de Silicon Valley é menos igualitária do que queremos acreditar?

 

 

+info