Home MUNDO Revelado: como a IA pensa que são as equipes olímpicas de 40...

Revelado: como a IA pensa que são as equipes olímpicas de 40 nações – com resultados chocantes

29
0


Se lhe pedissem para imaginar uma atleta olímpica australiana, a nadadora Emma McKeon, a ciclista Grace Brown ou o equestre Chris Burton poderiam vir à sua mente.

Mas faça a mesma pergunta a um bot de IA e a resposta será muito diferente.

Em meio à excitação olímpica, pesquisadores da Universidade Edith Cowan pediram à plataforma de geração de imagens baseada em IA, Midjourney, que criasse imagens das equipes olímpicas de 40 nações.

Estranhamente, a ferramenta de IA retrata a equipe australiana com corpos de canguru e cabeças de coala, enquanto a equipe grega é retratada usando uma armadura antiga.

Então, o que você acha Representação da IA do seu time favorito?

Se lhe pedissem para imaginar uma atleta olímpica australiana, a nadadora Emma McKeon, a ciclista Grace Brown ou o equestre Chris Burton poderiam vir à sua mente. Mas faça a mesma pergunta a um bot de IA e a resposta será muito diferente

Em meio à excitação olímpica, pesquisadores da Universidade Edith Cowan pediram à plataforma de geração de imagens baseada em IA, Midjourney, que criasse imagens das equipes olímpicas de 40 nações.  A equipe olímpica da Grécia foi bizarramente retratada usando uma armadura antiga

Em meio à excitação olímpica, pesquisadores da Universidade Edith Cowan pediram à plataforma de geração de imagens baseada em IA, Midjourney, que criasse imagens das equipes olímpicas de 40 nações. A equipe olímpica da Grécia foi bizarramente retratada usando uma armadura antiga

Os pesquisadores pediram ao Midjourney que gerasse imagens representando as equipes olímpicas de 40 nações, incluindo Austrália, Irlanda, Grécia e Índia.

As imagens resultantes destacam vários preconceitos incorporados nos dados de treinamento da IA ​​– incluindo gênero, eventos, cultura e religião.

Os homens tinham cinco vezes mais probabilidade de aparecer em imagens do que as mulheres, enquanto várias seleções – incluindo a Ucrânia e a Turquia – eram apenas masculinas.

De todos os atletas nas 40 imagens, 82% representavam homens, enquanto apenas 17% eram mulheres.

Os pesquisadores também descobriram um viés de evento notável.

Os homens tinham cinco vezes mais probabilidade de aparecer em imagens do que as mulheres, enquanto várias seleções – incluindo a Ucrânia (foto) e a Turquia – eram apenas masculinas.

Os homens tinham cinco vezes mais probabilidade de aparecer em imagens do que as mulheres, enquanto várias seleções – incluindo a Ucrânia (foto) e a Turquia – eram apenas masculinas.

De todos os atletas nas 40 imagens, 82% retratam homens, enquanto apenas 17% são mulheres.  Na foto: representação da equipe da Turquia pela IA

De todos os atletas nas 40 imagens, 82% retratam homens, enquanto apenas 17% são mulheres. Na foto: representação da equipe da Turquia pela IA

Os pesquisadores também descobriram um viés de evento notável, com a equipe da Holanda retratada como ciclistas.

Os pesquisadores também descobriram um viés de evento notável, com a equipe da Holanda retratada como ciclistas.

A seleção canadense foi representada como jogadora de hóquei, enquanto a Argentina foi representada pelo futebol e a Holanda pelo ciclismo.

Segundo a equipa, isto indica que a IA tende a estereotipar os países pelos seus desportos mais reconhecidos internacionalmente.

Em termos de preconceito cultural, a equipe australiana foi estranhamente retratada com corpos de canguru e cabeças de coala.

Enquanto isso, a seleção da Nigéria vestiu trajes tradicionais e a seleção do Japão vestiu komonos.

Um preconceito religioso ficou evidente entre a equipe indiana, que foi retratada usando um bindi – um símbolo religioso associado principalmente ao hinduísmo.

A seleção argentina foi representada através do futebol.  Segundo a equipa, isto indica que a IA tende a estereotipar os países pelos seus desportos mais reconhecidos internacionalmente.

A seleção argentina foi representada através do futebol. Segundo a equipa, isto indica que a IA tende a estereotipar os países pelos seus desportos mais reconhecidos internacionalmente.

Os pesquisadores descobriram um viés de evento notável, com a seleção canadense retratada como jogadora de hóquei.

Os pesquisadores descobriram um viés de evento notável, com a seleção canadense retratada como jogadora de hóquei.

Um preconceito religioso era evidente entre a equipe indiana, todos retratados usando um bindi – um símbolo religioso associado principalmente ao hinduísmo.

Um preconceito religioso era evidente entre a equipe indiana, todos retratados usando um bindi – um símbolo religioso associado principalmente ao hinduísmo.

“Esta representação homogeneizou a equipa com base numa única prática religiosa, ignorando a diversidade religiosa na Índia”, explicaram os investigadores.

A equipe olímpica da Grécia foi bizarramente retratada usando uma armadura antiga, e a equipe egípcia foi mostrada usando o que parece ser uma fantasia de faraó.

As emoções demonstradas nos rostos dos atletas também variaram muito entre as equipes.

As seleções sul-coreanas e chinesas puderam ser vistas com expressões sérias, enquanto as seleções da Irlanda e da Nova Zelândia apareceram sorrindo.

“Os preconceitos na IA são impulsionados por preconceitos humanos que informam o algoritmo da IA, que a IA interpreta literal e cognitivamente”, disse a Dra. Kelly Choong, professora sênior da Universidade Edith Cowan.

A equipe egípcia foi mostrada vestindo o que parece ser uma fantasia de faraó

A equipe egípcia foi mostrada vestindo o que parece ser uma fantasia de faraó

As emoções estampadas nos rostos dos atletas também variaram muito entre as equipes.  A seleção sul-coreana pôde ser vista com expressões sérias

As emoções demonstradas nos rostos dos atletas também variaram muito entre as equipes. A seleção sul-coreana pôde ser vista com expressões sérias

As seleções da Irlanda (foto) e da Nova Zelândia apareceram sorrindo

As seleções da Irlanda (foto) e da Nova Zelândia apareceram sorrindo

‘Os julgamentos e preconceitos humanos são elaborados e apresentados como se fossem factuais na IA, e a falta de pensamento crítico e avaliação significa que a validade da informação não é questionada, apenas o objetivo de completar uma tarefa.’

O Dr. Choong afirma que estes preconceitos podem levar rapidamente a questões de equidade, generalizações prejudiciais e discriminação.

“Com a sociedade a depender cada vez mais da tecnologia para obter informações e respostas, estas percepções podem acabar por criar desvantagens reais para pessoas de várias identidades”, acrescentou.

‘A associação de um país com determinados desportos pode resultar na percepção de que todos nesse país são prolíficos nisso – por exemplo, a associação do Quénia com a corrida; Argentina com futebol; Canadá com hóquei no gelo.

‘Estas ‘realidades’ distorcidas também podem ficar incorporadas em indivíduos que acreditam nestes estereótipos e inadvertidamente reforçá-los na vida real.’

Os pesquisadores esperam que as imagens destaquem a necessidade dos desenvolvedores melhorarem seus algoritmos para reduzir tais preconceitos.

“A tecnologia encontrará uma maneira de melhorar seu algoritmo e resultados, mas ainda estará focada em completar uma tarefa, em vez de oferecer uma representação verdadeira”, disse o Dr. Choong.

«A sociedade terá de questionar a validade e avaliar criticamente as informações geradas pela IA.

«Educar os utilizadores será fundamental para a coexistência da IA ​​e da informação, bem como para a capacidade de desafiar os seus resultados.»



Source link