A suposta objetividade da tecnologia mascara o fato de que ela pode produzir viés
Uma pesquisa recente revelou que brasileiros e brasileiras discordam total ou parcialmente sobre o uso de inteligência artificial (IA) em casos de identificação de crimes, diagnóstico de doenças e análises de processos judiciais.
Segundo o estudo realizado pela agência Ideia, em colaboração com o Brazil Forum UK, 40% do público se opõe ao uso da ferramenta na área da medicina e 20% questiona de forma parcial. Apenas 8% concordam totalmente.
No entanto, a investigação, divulgada em maio deste ano, trouxe uma aparente contradição ao revelar, também, que o público não acredita que a IA pode aprofundar desigualdades de gênero ou raciais. Do total de entrevistados, apenas 34% apresentaram preocupações em relação a estes temas.
"É interessante que, apesar de não reconhecer essas discriminações, o brasileiro não acredita nessa tecnologia”, afirma a professora Fernanda Rodrigues, doutoranda em Direito pela Universidade Federal de Minas Gerais (UFMG), em entrevista ao programa Bem Viver desta segunda-feira (8).
Coordenada de Pesquisa do Instituto de Referência em Internet e Sociedade (Iris), Rodrigues levou luz a um debate urgente a respeito de inteligência artificial: "Isso abre margem justamente para a gente debater o caminho para a solução, que tem a ver com essa questão do tecnosolucionismo".
"O que é isso? Basicamente, a gente entender a tecnologia como um fim em si mesmo. Então, a tecnologia vai trazer o benefício, ela vai trazer o bem, ela pode. Mas a gente precisa analisar se realmente, no caso concreto, está servindo para todo mundo ou se está servindo apenas para uma parcela da população."
Para a professora, é importante que a sociedade e as grandes empresas de tecnologias não acreditem ou invistam na IA como uma forma de resolução de problemas estruturais da sociedade, como o racismo e a misoginia.
"O primeiro passo é entender que a inteligência artificial não é uma tecnologia desconectada da sociedade, pelo contrário. Ela é feita por pessoas humanas e ela também é inserida em um contexto dentro de uma realidade específica.”
Ou seja, para a professora, combater a discriminação que a inteligência artificial tem potencilizado na internet não passa apenas pela regulamentação estatal e formalização de acordos éticos entre as empresas desenvolvedoras.
"Essas discriminações potencializadas pela tecnologia vêm de diferentes fontes, como, por exemplo, a falta da diversidade no campo da tecnologia."
A pesquisadora cita uma série de exemplos nos quais a IA reproduz comportamentos discriminatório já presentes na nossa sociedade.
"Na segurança pública, a gente tem casos de tentativa de utilização de [IA no] policiamento preditivo – ferramenta utilizada com a intenção de prever onde teria a maior possibilidade de acontecerem crimes e aí destinar o policiamento específico para essa área."
Segundo a especialista, a IA não tem sido capaz de impedir que comunidades já muito marginalizadas e vigiadas pela polícia continuem sendo penalizadas. Pelo contrário, essas ferramentas acabam intensificando ainda mais essa violação de direitos.
Confira a entrevista na íntegra
Como a inteligência artificial tem reproduzido ou potencializado comportamentos discriminatórios da sociedade?
O primeiro passo é entender que a inteligência artificial não é uma tecnologia desconectada da sociedade, pelo contrário. Ela é feita por pessoas e também é inserida em um contexto dentro de uma realidade específica.
Boa parte das ferramentas de inteligência artificial se utiliza de uma base de dados que alimenta as informações sobre as quais ela vai gerar novos resultados, podendo ser previsões ou recomendações de determinados conteúdos.
Um dos principais problemas é que esses dados costumam refletir a nossa realidade. E se a gente vive numa sociedade racista, sexista, capacitista e que reproduz outros tipos de discriminação, é natural que esse tipo de tecnologia também acabe não somente reproduzindo, como potencializando essas discriminações.
Um exemplo bem próximo da nossa realidade tem sido a questão do reconhecimento facial, principalmente utilizada para fins de segurança pública. Temos diferentes estudos, inclusive um que virou referência na área foi de o de Joy Buolamwini [canadense] e Timnit Gebru [etíope], são duas pesquisadoras negras estrangeiras que analisaram três sistemas comerciais de reconhecimento facial e identificaram que eles tinham maior índice de falibilidade sobre o rosto de mulheres negras do que sobre o rosto de homens brancos.
Isso também foi analisado por outros pesquisadores que identificaram que esse mesmo reconhecimento facial tem grandes índices de falha sobre os rostos de pessoas trans.
Ainda dentro da segurança pública, tem casos de tentativa de utilização de policiamento preditivo – ferramenta utilizada com a intenção de prever onde teria a maior possibilidade de acontecerem crimes e aí destinar o policiamento específico para essa área.
Mas, independentemente do tipo de dado que alimenta essa ferramenta, a gente percebe que não tem sido suficiente para medir que comunidades que já são muito marginalizadas e muito vigiadas pela polícia sejam novamente penalizadas também através desses sistemas.
Para mencionar ainda mais um exemplo, na IA para a saúde, já foi analisado um caso em que algoritmos utilizados para agilizar a avaliação de risco do paciente. E vimos que pessoas negras significativamente mais doentes estavam sendo colocados na mesma faixa de risco do que brancos.
Eu falo muito aqui sobre os dados que alimentam as ferramentas, que eles são os maiores problemas, mas não se trata somente disso.
Essas discriminações potencializadas pela tecnologia vêm de diferentes fontes, como, por exemplo, a falta da diversidade no campo da tecnologia.
A gente tem ainda um setor da tecnologia muito composto, principalmente, por homens brancos, e não por pessoas atravessadas por outros marcadores sociais.
Então, isso impacta na forma como aquela tecnologia é utilizada. O tecnosolucionismo e uma suposta objetividade da tecnologia também mascaram o fato de que ela pode produzir viés e isso pode interferir na interpretação humana sobre os seus resultados.
A pesquisa mostrou que brasileiros e brasileiras reconhecem que a IA pode potencializar discriminações. Isso é positivo, certo?
Exatamente. Essa pesquisa vem em boa hora, porque ela denota a importância desse cenário que a gente está vivendo atualmente, que é a reconstrução de uma regulação para esses sistemas da inteligência artificial.
Mas eu gostaria de destacar dois resultados que me chamaram a atenção olhando para essa pesquisa.
O primeiro é que ainda há, na verdade, uma resistência das pessoas brasileiras em reconhecer que as tecnologias de IA podem aprofundar as igualdades e desigualdades, como por exemplo, desigualdade de gênero e a discriminação racial.
As pessoas que concordam que as tecnologias podem potencializar esse tipo de discriminação ainda é inferior ao número das que discordam total ou parcialmente.
Por outro lado, há uma desconfiança muito grande com a utilização de tecnologias para áreas que a gente vê hoje a IA sendo trazida como uma possível solução para problemas históricos.
Por exemplo, para identificação de crimes, para agilizar diagnóstico de doenças e também para beneficiar análise de processos judiciais. A maior parte das pessoas, em torno de 60% dos entrevistados, afirmam discordar de que essa inteligência artificial possa auxiliar nesses casos.
É interessante que, apesar de não reconhecer essa discriminação, o brasileiro não acredita nessas tecnologia.
Isso abre margem justamente para a gente debater o caminho para a solução, que tem a ver com essa questão do tecnosolucionismo.
O que é isso? Basicamente, a gente entender a tecnologia como um fim em si mesmo. Então, a tecnologia vai trazer o benefício, vai trazer o bem, e sim, ela pode, mas a gente precisa analisar se realmente, no caso concreto, está servindo para todo mundo ou se está servindo apenas para uma parcela da população.
Além de tudo isso que você está trazendo, é importante o Estado firmar leis para regular a tecnologia?
A regulação é fundamental diante do cenário atual. Como a gente já mencionou, tem pessoas que já estão sendo efetivamente afetadas de forma negativa por essa tecnologia.
É imprescindível que a gente consiga estabelecer uma regulação para garantir direitos mínimos frente a esses sistemas e também para assegurar que as pessoas possam ter um direito à responsabilização caso elas venham a ser prejudicadas.
Por outro lado, eu entendo que a regulação é fundamental também para o próprio setor privado para que ele possa promover a inovação e o avanço tecnológico seguro.
E numa escala de 0 a 10, você vê o Brasil em que estágio nessa formulação de legislações, para dar controle para todas essas questões que a gente está conversando agora?
Olha, é difícil definir numa escala de 0 a 10. Eu acho que eu ficaria entre 7 e 8, porque a gente evoluiu bastante em relação ao que a gente tinha anteriormente.
A discussão para regulação no Brasil da inteligência artificial ganhou folêgo principalmente a partir de 2020, com o Projeto de Lei 21/2020, mas muito voltado para princípios.
Então, ele se assemelhava mais a uma carta de intenções em torno da IA do que, efetivamente, a uma regulação capaz de assegurar direitos e responsabilidades.
Por outro lado, essas versões mais recentes que, inclusive, estão sendo discutidas em uma comissão temporária interna no Senado, já vão num caminho que eu entendo muito mais pertinente para o nosso contexto.
É importante que tenhamos uma regulação nacional que faça sentido de acordo com as nossas especificidades, que atribua uma escala para o nível da tecnologia, por exemplo, considerado uma [IA] de risco excessivo, ou seja, que deve ser banida. E, principalmente, não deixar passar essa ideia de que a regulação barra a inovação.
A gente pode ver daqui a alguns danos a inteligência artificial combatendo discriminações que estão normalizadas no mundo da internet?
Com certeza, eu acho que a gente precisa ser otimista nesse ponto e trabalhar nesse sentido justamente para ter uma regulação que nos auxilie com esses instrumentos para combater a discriminação.
Usar a IA para outras finalidades, como, por exemplo, prever desastres naturais e condições climáticas, e aí tentar ajudar a população nesse sentido. Por exemplo, para conseguir compreender quais são as áreas de uma cidade que precisam de mais recursos para uma população que está desassistida.
E nas escolas?
Em relação a IA no ensino, eu acho que, sim, ela tem um potencial muito grande. Inclusive a gente já teve recomendações de organizações internacionais sobre como utilizar a IA no ensino de forma adequada e não para reproduzir ou para vulnerabilizar ainda mais crianças e adolescentes.
Um ponto positivo dessas versões mais recentes da regulação é justamente a necessidade de que o governo federal implemente estratégias para o letramento digital da população, incluindo ensino sobre a inteligência artificial com prioridade para o ensino básico.
Se a gente tem dificuldade muitas vezes de compreender que nem tudo o que a tecnologia traz é absoluto, que as informações que estão ali devem ser questionadas e que ela não pode ser lida como um fim em si mesma, isso para crianças é ainda mais preocupante.
E que a gente também não pode cair na tentativa de colocar IA a todo custo no ensino, tem que ver se ela é realmente necessária naquele contexto. Porque sim, a IA pode ajudar em alguma atividade, mas precisa ver se é preciso adicionar esse tipo de tecnologia ou se a gente tem alguma outra ferramenta que já dá conta.
Sintonize
O programa de rádio Bem Viver vai ao ar de segunda a sexta-feira, das 11h às 12h, com reprise aos domingos, às 10h, na Rádio Brasil Atual. A sintonia é 98,9 FM na Grande São Paulo. A versão em vídeo é semanal e vai ao ar aos sábados a partir das 13h30 no YouTube do Brasil de Fato e TVs retransmissoras: basta clicar aqui.
Em diferentes horários, de segunda a sexta-feira, o programa é transmitido na Rádio Super de Sorocaba (SP); Rádio Palermo (SP); Rádio Cantareira (SP); Rádio Interativa, de Senador Alexandre Costa (MA); Rádio Comunitária Malhada do Jatobá, de São João do Piauí (PI); Rádio Terra Livre (MST), de Abelardo Luz (SC); Rádio Timbira, de São Luís (MA); Rádio Terra Livre de Hulha Negra (RN), Rádio Camponesa, em Itapeva (SP), Rádio Onda FM, de Novo Cruzeiro (MG), Rádio Pife, de Brasília (DF), Rádio Cidade, de João Pessoa (PB), Rádio Palermo (SP), Rádio Torres Cidade (RS); Rádio Cantareira (SP); Rádio Keraz; Web Rádio Studio F; Rádio Seguros MA; Rádio Iguaçu FM; Rádio Unidade Digital ; Rádio Cidade Classic HIts; Playlisten; Rádio Cidade; Web Rádio Apocalipse; Rádio; Alternativa Sul FM; Alberto dos Anjos; Rádio Voz da Cidade; Rádio Nativa FM; Rádio News 77; Web Rádio Líder Baixio; Rádio Super Nova; Rádio Ribeirinha Libertadora; Uruguaiana FM; Serra Azul FM; Folha 390; Rádio Chapada FM; Rbn; Web Rádio Mombassom; Fogão 24 Horas; Web Rádio Brisa; Rádio Palermo; Rádio Web Estação Mirim; Rádio Líder; Nova Geração; Ana Terra FM; Rádio Metropolitana de Piracicaba; Rádio Alternativa FM; Rádio Web Torres Cidade; Objetiva Cast; DMnews Web Rádio; Criativa Web Rádio; Rádio Notícias; Topmix Digital MS; Rádio Oriental Sul; Mogiana Web; Rádio Atalaia FM Rio; Rádio Vila Mix; Web Rádio Palmeira; Web Rádio Travessia; Rádio Millennium; Rádio EsportesNet; Rádio Altura FM; Web Rádio Cidade; Rádio Viva a Vida; Rádio Regional Vale FM; Rádio Gerasom; Coruja Web; Vale do Tempo; Servo do Rei; Rádio Best Sound; Rádio Lagoa Azul; Rádio Show Livre; Web Rádio Sintonizando os Corações; Rádio Campos Belos; Rádio Mundial; Clic Rádio Porto Alegre; Web Rádio Rosana; Rádio Cidade Light; União FM; Rádio Araras FM; Rádios Educadora e Transamérica; Rádio Jerônimo; Web Rádio Imaculado Coração; Rede Líder Web; Rádio Club; Rede dos Trabalhadores; Angelu'Song; Web Rádio Nacional; Rádio SINTSEPANSA; Luz News; Montanha Rádio; Rede Vida Brasil; Rádio Broto FM; Rádio Campestre; Rádio Profética Gospel; Chip i7 FM; Rádio Breganejo; Rádio Web Live; Ldnews; Rádio Clube Campos Novos; Rádio Terra Viva; Rádio interativa; Cristofm.net; Rádio Master Net; Rádio Barreto Web; Radio RockChat; Rádio Happiness; Mex FM; Voadeira Rádio Web; Lully FM; Web Rádionin; Rádio Interação; Web Rádio Engeforest; Web Rádio Pentecoste; Web Rádio Liverock; Web Rádio Fatos; Rádio Augusto Barbosa Online; Super FM; Rádio Interação Arcoverde; Rádio; Independência Recife; Rádio Cidadania FM; Web Rádio 102; Web Rádio Fonte da Vida; Rádio Web Studio P; São José Web Rádio - Prados (MG); Webrádio Cultura de Santa Maria; Web Rádio Universo Livre; Rádio Villa; Rádio Farol FM; Viva FM; Rádio Interativa de Jequitinhonha; Estilo - WebRádio; Rede Nova Sat FM; Rádio Comunitária Impacto 87,9FM; Web Rádio DNA Brasil; Nova onda FM; Cabn; Leal FM; Rádio Itapetininga; Rádio Vidas; Primeflashits; Rádio Deus Vivo; Rádio Cuieiras FM; Rádio Comunitária Tupancy; Sete News; Moreno Rádio Web; Rádio Web Esperança; Vila Boa FM; Novataweb; Rural FM Web; Bela Vista Web; Rádio Senzala; Rádio Pagu; Rádio Santidade; M'ysa; Criativa FM de Capitólio; Rádio Nordeste da Bahia; Rádio Central; Rádio VHV; Cultura1 Web Rádio; Rádio da Rua; Web Music; Piedade FM; Rádio 94 FM Itararé; Rádio Luna Rio; Mar Azul FM; Rádio Web Piauí; Savic; Web Rádio Link; EG Link; Web Rádio Brasil Sertaneja; Web Rádio Sindviarios/CUT.
A programação também fica disponível na Rádio Brasil de Fato, das 11h às 12h, de segunda a sexta-feira. O programa Bem Viver está nas plataformas: Spotify, Google Podcasts, Itunes, Pocket Casts e Deezer.
Assim como os demais conteúdos, o Brasil de Fato disponibiliza o programa Bem Viver de forma gratuita para rádios comunitárias, rádios-poste e outras emissoras que manifestarem interesse em veicular o conteúdo. Para ser incluído na nossa lista de distribuição, entre em contato por meio do formulário.
Edição: Martina Medina