Tamanho do texto

Segundo CEO de sofware financeiro, para que seus AIs possam ter sucesso comercial, é necessário moldá-los de acordo com os preconceitos mundanos

Brasil Econômico

Escolha de vozes e cargos de AIs tem contribuído para estereótipos de gênero na tecnologia
iStock
Escolha de vozes e cargos de AIs tem contribuído para estereótipos de gênero na tecnologia

Enquanto os engenheiros de supercomputadores desafiam os limites do que é possível no campo da inteligência computacional , eles também podem estar reforçando normas de gênero desatualizadas por meio do antropomorfismo de suas criações. Desse modo, podem estar conduzindo o progresso tecnológico ao mesmo tempo em que comprometem a progressão sociocultural, reforçando estereótipos de gênero.

Leia também: Transformação digital empresarial: especialista aponta os 7 pecados capitais

Um exemplo dessa reafirmação de estereótipos de gênero é o fato de o supercomputador do mundo, IBM Watson ter uma voz considerada masculina, enquanto quase todos os assistentes virtuais, como Siri, Alexa e Cortanae possuem vozes femininas. A justificativa para isso está atribuída a uma estratégia de marketing.

O CEO do software financeiro da Clinc, Jason Mars, afirmou ao The New York Times que deu a sua inteligência artificial (AI) uma voz “útil, jovem e caucasiana”, já que para ser bem sucedida comercialmente “há uma espécie de pressão para se conformar aos preconceitos do mundo”.

Em uma entrevista concedida a CNN em 2011, o professor da Universidade de Stanford, Clifford Nass, justificou tal escolha com a afirmação de que “há um fenômeno onde o cérebro humano é desenvolvido para gostar de vozes femininas”.

Entretanto, esse argumento não foi considerado adequado, já que o hábito ou o condicionamento não é um indicador do que é eticamente responsável. Um equivalente racial é dar aos assistentes de inteligência artificial (AI) uma voz considerada mexicana ou negra, por entenderem que essas pessoas realizam tradicionalmente empregos subordinados e não poderosos.

A filósofa feminista, Judith Butler, expunha em suas obras que não há causalidade biológica entre ter um pênis ou uma vagina e comportar-se de certa forma. As normas de gênero, como mulheres devem usar vestidos e homens, ternos, foram construídas ao longo de milhares de anos através do condicionamento social, até beirarem a uma normatividade.

Em seu livro  “Wired Speech”, o professor Nass afirmou que as vozes masculinas são geralmente percebidas como autoritárias e dominantes, enquanto as das mulheres estão associadas a ajudar gentilmente as pessoas a chegarem a conclusões. De acordo com Judith, isso se deve ao domínio do patriarcado ao longo do tempo, galvanizado uma coincidência a uma verdade.

Condicionamento

A questão fundamental é que a tecnologia está se tornando mais onipresente em nossas vidas e, portanto, desempenha um papel cada vez mais significativo em nosso condicionamento. Por isso, quando assistentes de AI subordinados usam vozes de mulheres, desempenham estereótipos draconianos de que as mulheres são inferiores.

Leia também: IBM desafia percepções apocalípticas acerca da Inteligência Artificial

Embora isso possa ser usado para que um produto seja mais vendido ou por as pessoas considerarem mais confortável, isso não significa que esteja certo. Para desafiar estruturas de poder arcaicas, é necessário desafiar as formas em que se manifestam. Alterar os nomes e as vozes dos assistentes de AI é fundamental para evitar o reforço da concepção de que as mulheres são assistentes por padrão.

Talvez seja ainda pior a possibilidade de que essas AI não estejam não apenas entrando em embalagens sexistas, como também sendo programadas para serem sexistas. A programação é linguagem e, como qualquer idioma, requer definições. 

Essas definições são enraizadas com preconceitos, pesos e estruturas de poder sutis que nem o programador individual pode não estar ciente. Assim, se uma AI é programada com definições discriminatórias - seja elas intencionais ou não - a própria AI se tornará preconceituosa.

Kate Crawford resumiu um fenômeno semelhante com reconhecimento de imagem AI, escrevendo no The New York Times que “algoritmos aprendem alimentando certas imagens, muitas vezes escolhidas pelos engenheiros. Dessa forma, o sistema constrói um modelo do mundo baseado nessas imagens. Se um sistema for treinado com fotos de pessoas – em sua maioria - brancas, terá mais dificuldade em reconhecer os rostos não brancos”.

Um exemplo a ser dado é o aplicativo de fotos do Google, que classifica os negros como gorilas. Isso é extremamente preocupante, já que parte esmagadora do Silicon Valley e do universo tecnológico são compostos por homens brancos e de classe média. Isso pode tornar a AI opressiva e regressiva, além de mostrar a falta de diversidade em relação aos criadores dessa tecnologia. É esperado que tal acontecimento seja corrigido com o emprego de mais futuristas, técnicos e pesquisadores negros e mulheres.

Demos muito poder à nossa tecnologia, conferindo-a uma capacidade notável para colorir a percepção humana. Com isso, devemos ser extremamente cuidadosos para que possamos entender as consequências potenciais de decisões antropomórficas ou de programação, já que tem a capacidade de nos condicionar subtilmente.

É preciso ter cuidado para que o uso de assistentes vistas como femininas na tecnologia, não seja o primeiro passo para reforçar estereótipos de gênero, trazendo opressões adicionais. As empresas podem ser sábias para seguir o exemplo do assistente do Google, que trabalha com a neutralidade de gênero. Além disso, é importante se ter em mente que se afastando da humanização dos assistentes de AI, os programadores podem impactar a maneira como interagimos com a tecnologia, comprometendo também a interação com outros humanos.

*Com tradução do Futurism.com

Leia também: Biometria nos veículos: veja como a experiência de transporte será impactada

    Leia tudo sobre: inovação