Recentemente, a Academia Brasileira de Letras (ABL) encontrou-se no centro de uma controvérsia após anunciar a criação de um avatar digital do renomado escritor Machado de Assis, utilizando-se de Inteligência Artificial (IA) para interagir com o público durante visitas guiadas ao seu prédio. A polêmica surgiu quando o avatar, projetado em parceria com a empresa Euvatar Storyliving após três meses de alimentação de dados com obras literárias do escritor e estudos desenvolvidos na própria ABL, foi criticado por representar Machado de Assis com pele branca. Essa decisão foi percebida como uma forma de "embranquecimento" do escritor, que era um homem negro, nascido em uma família pobre no Rio de Janeiro do século 19.
Esta não é a primeira vez que a representação de Machado de Assis sofre alterações em prol de uma aparência mais europeia.
Em 2011, uma campanha da Caixa Econômica Federal cometeu erro semelhante, sendo posteriormente corrigida após reações negativas do público. A reincidência desse tipo de controvérsia evidencia um problema persistente de eurocentrismo e reacende a questão do possível viés racial embutido nos sistemas de IA que moldam essas representações.
O próprio avatar, ao ser questionado sobre sua cor, responde com consciência de sua identidade racial e dos desafios enfrentados, evidenciando a complexidade da questão. No entanto, esse reconhecimento não mitiga as críticas à decisão inicial de alterar sua aparência.
Essa questão levanta importantes debates sobre como a IA e os sistemas algorítmicos podem perpetuar vieses raciais, especialmente quando não são devidamente programados para reconhecer e respeitar a diversidade racial e cultural.
A problemática se estende além da ABL, como demonstrado pelo caso do chatbot Gemini do Google, que teve sua funcionalidade de geração de imagens suspensa temporariamente após ser criticado por distorcer representações raciais em contextos históricos.
Para enfrentar esses desafios, é crucial que desenvolvedores de IA implementem medidas que promovam uma representação mais fiel e diversificada, considerando nuances raciais de forma adequada. Isso inclui a alimentação de dados mais abrangentes e representativos na programação desses sistemas, além de uma reflexão crítica sobre os critérios utilizados para modelar algoritmos. Somente através de uma abordagem consciente e inclusiva é possível mitigar os vieses raciais presentes em tecnologias emergentes.
Um artigo do Washington Post do final do ano passado trouxe à tona outra dimensão preocupante da questão. Ferramentas de IA para geração de imagens tendem a perpetuar clichês perturbadores: mulheres asiáticas são hipersexualizadas, africanos são primitivos, europeus são cosmopolitas, líderes são homens, prisioneiros são negros. Esses estereótipos não refletem a realidade, mas emergem dos dados que treinam a tecnologia, muitas vezes coletados da internet, um reservatório tóxico repleto de pornografia, misoginia, violência e preconceito.
Esses casos sublinham a importância de abordagens mais sofisticadas e éticas no desenvolvimento de IA, ressaltando a necessidade de vigilância contínua e ajustes para assegurar que as novas tecnologias promovam inclusão e diversidade, em vez de perpetuar desigualdades e preconceitos. A conscientização e a responsabilidade são essenciais para que a IA sirva de ponte para um futuro mais inclusivo e equitativo.
A controvérsia em torno da representação de Machado de Assis e os vieses evidentes em imagens geradas por IA sublinham a necessidade crítica de vigilância e medidas proativas no desenvolvimento tecnológico. À medida que integramos a IA mais profundamente em nossos contextos culturais e sociais, é imperativo que enfrentemos esses vieses diretamente. Isso inclui não apenas aprimorar a diversidade dos conjuntos de dados usados para treinar sistemas de IA, mas também incorporar considerações éticas no processo de design e desenvolvimento.
Educar desenvolvedores e usuários de IA sobre o potencial para viés e seu impacto é outro passo crucial.
Campanhas de conscientização e programas de treinamento podem equipar indivíduos com o conhecimento e ferramentas necessárias para identificar e mitigar vieses. Além disso, medidas regulatórias e diretrizes poderiam fornecer um quadro para o desenvolvimento responsável de IA, garantindo que as tecnologias sejam projetadas com inclusão e equidade em mente.
A jornada em direção a uma IA livre de vieses é complexa e contínua. No entanto, aprendendo com erros passados, como a representação incorreta de Machado de Assis, e abraçando uma abordagem multidisciplinar que inclui perspectivas de comunidades diversas, podemos direcionar o desenvolvimento da IA de maneira que reflita a verdadeira diversidade da experiência humana.
*Cláudio Soares é editor, escritor e jornalista. Atualmente, está escrevendo a biografia de Machado de Assis.
**Este é um artigo de opinião e não necessariamente expressa a linha do editorial do jornal Brasil de Fato.
Fonte: BdF Rio de Janeiro
Edição: Jaqueline Deister