Todos parecem já saber: hoje, as tecnologias são praticamente onipresentes no cotidiano. Trata-se de uma realidade que tem trazido novos desafios e muitos problemas, vários ainda a serem estudados e plenamente compreendidos. A discriminação algorítmica é uma das consequências negativas da intensa digitalização da vida e algo que pode e deve ser discutido em sala de aula.
Em entrevista à Palavras Projetos Editoriais, Horrara Moreira, advogada especialista em direitos digitais, pesquisadora e educadora popular, integrante do coletivo AqualtuneLab, explica o que é este problema e o papel da educação para sua conscientização e combate. Leia, a seguir, a entrevista completa:
Palavras Projetos Editoriais: O que é discriminação algorítmica e como ela se materializa em nosso dia a dia?
Horrara Moreira: Discriminação é qualquer distinção, exclusão, restrição ou preferência por algum grupo social referente a sua cultura, origem étnica, religião. E a discriminação algorítmica vai ocorrer da mesma forma, produzindo os mesmos efeitos em relação aos mesmos grupos e pessoas, só que vai ser operada via algoritmo, que são regras matemáticas de processamento de informação que, muitas vezes, são capazes de tomar decisões.
A discriminação algorítmica vai ocorrer no nosso cotidiano quando, por exemplo, em um processo seletivo via plataforma automatizada, a gente tem a construção algorítmica da predileção de um candidato com determinadas características em relação a outro. Ela vai ocorrer, por exemplo, no processamento de informações pelo sistema de segurança pública do nosso país, na adoção de tecnologias de reconhecimento facial para reconhecimento de suspeitos, que são tecnologias notadamente com viés racial de identificação. E por aí vai.
Palavras: Quais os principais impactos da discriminação algorítmica para as pessoas afetadas por esse problema?
Horrara: Individualmente, causa uma angústia, você tem um problema da ordem psicossocial, de como uma pessoa que é discriminada lida com essa situação enquanto ela passa, como ela se vê enquanto cidadã, como ela se sente na coletividade. E a gente tem os problemas de ordem social. A gente vai continuar reproduzindo, como nação, injustiças históricas, assimetrias históricas que impedem com que a gente viva, de fato, a democracia. Que impedem que nós, cidadãos e cidadãs brasileiras, tenhamos acesso aos nossos direitos e possamos exercer plenamente nossa cidadania e nossa vida na coletividade.
Então se a gente tem, por exemplo, um caso de discriminação algorítmica na educação, você vai impedir com que se tenha acesso à educação de qualidade para determinado grupo ou que determinado conteúdo seja formatado a partir da inteligência artificial, dos algoritmos, para uma determinada parcela da população, e para outra, de uma maneira diferente. Você tem barreiras de acesso. Você tem isso no SUS, na segurança pública… você vai ter esses impactos em todas as esferas da vida de uma pessoa.
Palavras: Você acredita que a discriminação algorítmica está relacionada a questões como a desigualdade de acesso a meios digitais?
Horrara: Sim. No Brasil, por mais que a gente tenha boa parcela da população conectada, a gente tem conexões diferenciadas. A gente sabe, hoje, com os dados do Cetic BR, que é o centro de pesquisas do Nic.br, que as mulheres negras possuem a menor taxa de acesso à internet e à internet de qualidade. A maior parte da população brasileira só acessa a internet via celular, por um pacote pré-pago, que tem limitação de acesso e que restringe também. A forma de navegação dos usuários geralmente é através de aplicativos de redes sociais, de mensageria, o que impede que essas pessoas se instruam e possam ter acesso a serviços relacionados à cidadania digital, por exemplo. Então, sim. A discriminação algorítmica vai ter uma correlação nessa desigualdade de acesso nesses meios, porque se você não tem uma “cidadania digital” garantida para determinada parcela da população, ela também não vai conseguir inferir nos processos decisórios ou no acesso a políticas públicas que vão demandar desse meio de acesso, que é o meio digital. A precariedade do acesso ou a forma do acesso vai fazer com que a gente possa ter um enviesamento de dados ou que a gente possa ter uma dificuldade de acesso a determinados serviços e políticas, e isso vai levar à discriminação.
Palavras: Como ferramentas recentes de geração de texto a partir de inteligência artificial, como o ChatGPT, podem reproduzir preconceitos e desinformação?
Horrara: Os modelos algorítmicos, como os do ChatGPT, vão aprender com base em uma alimentação de dados. Então o ChatGPT vai ser chamado por muitos de “papagaio”, que vai repetir coisas. E repetindo coisas, aí a gente tem um problema. Alguns especialistas, por exemplo, preveem que muito em breve 90% do conteúdo que a gente encontra na internet terá sido gerado por inteligência artificial. E aí o perigo que a gente tem para propagação de desinformação, para o preconceito, é que a gente pode reproduzir [esse tipo de conteúdo] de forma sistemática, talvez mais ampla, desenfreada e com muita dificuldade de controle. Acho que esse é o grande alerta: para onde a gente vai? Quais são as formas de auditoria? Isso é muito importante de ser questionado. Porque se a gente está lidando com tecnologias que lidam com aquilo que a sociedade já produziu, e se a sociedade é racista, se a sociedade é desigual, isso vai estar refletido dentro dessa ferramenta. Não é uma ferramenta à prova de erros, não é uma ferramenta imaculada, muito pelo contrário, ela é resultado das nossas interações sociais.
Palavras: Quais são os problemas e eventuais riscos que essas ferramentas digitais, tanto redes sociais quanto o ChatGPT, podem trazer para a educação básica?
Horrara: Considerando que a educação básica é um momento primordial para o desenvolvimento da cognição, da relação do ser com o ambiente, com os outros, e considerando também o aumento da presença digital dentro das casas, mesmo que seja por um acesso precário, como um celular, a gente tem muitos desafios. Uma das coisas que a gente vem observando e vem tentando acompanhar a partir de especialistas em educação que estão refletindo sobre esses temas é que a presença do ChatGPT, das IAs generativas ou do relacionamento com as redes sociais põe a gente pra repensar a relação professor-aluno. Hoje, as inteligências generativas são um buscador excelente, um buscador completamente refinado, capaz de oferecer respostas — que têm todas as limitações e os problemas éticos que a gente já conversou, mas que, de fato, têm um potencial muito grande para trazer soluções rápidas para os alunos. Se a gente tem uma relação conteudista com a educação nessa transmissão de conhecimento, o professor precisa se reposicionar nessa lógica, porque o conteúdo vai estar todo à disposição do aluno, de uma forma muito simples, muito rápida.
Nesse sentido, o virtual vai ser uma reprodução do nosso espaço físico, das nossas relações culturais, da forma como a gente se relaciona com o ambiente. Então se o papel da educação for uma emancipação, a gente vai ter que pensar como essas ferramentas modificam as estruturas sociais do nosso cotidiano e como a gente se relaciona com essas ferramentas, com essas tecnologias, sem que elas representem um dano e um risco para o nosso desenvolvimento, para o livre pensar e brincar da criança e do adolescente. E daí o professor vai ser, nesse processo, um educador para essa relação com o digital. Como que a gente estabelece isso? Uma questão interessante é se, por exemplo, um aluno constrói uma resposta com inteligência artificial, seria interessante entender qual é o processo dele de construção dessas perguntas, dessa interação com a inteligência artificial.
Palavras: Discriminação algorítmica pode ser um termo e um conceito ainda muito pouco difundidos. Como você acredita que é possível conscientizar a população em geral sobre essa situação?
Horrara: É a pergunta de milhões! Para toda a sociedade civil que se dedica à compreensão dos direitos digitais como uma dimensão importante para o exercício da cidadania e para a democracia em si, é a pergunta que a gente vem sempre se fazendo, como dialogar. Eu entendo que esse tem que ser um conhecimento desenvolvido de fato desde a educação básica, uma educação para a cidadania digital, entendendo que hoje em dia todos os aspectos da nossa vida vão passar pelo digital. Então, entender um processo para que isso se torne algo popular é entender que a cidadania digital faz parte do conjunto de informações, do conjunto de saberes necessários para que uma pessoa possa exercer a sua cidadania plena, que faz parte de um direito fundamental. Hoje, a maior parte dos cidadãos brasileiros, imagino eu, sabe que tem direito à educação, que tem direito à saúde, que tem direitos universais. Esse direito à autodeterminação informativa enquanto indivíduo, enquanto sujeito, mas enquanto também coletividade precisa estar dentro do nosso rol de pedidos, de ensino e de manifestação pública nas suas mais diversas formas, na produção artística, na televisão, no rádio, em uma gramática fácil, em uma gramática acessível.
Palavras: Na sua visão, qual é o papel da educação para o combate à discriminação algorítmica? E como abordar o tema com estudantes de diferentes idades?
Horrara: Quando a gente conhece, a gente tem a possibilidade de agir a respeito. Através do conhecimento dos nossos direitos, a gente vai poder exercê-los. Acho que o primeiro passo é que os alunos consigam compreender o que é discriminação, para que isso tenha nome, para que isso seja dado o contorno científico. Precisa partir do lugar claro de que tecnologias não são neutras. E até que ponto a gente está disposto a deixar que as tecnologias decidam por nós, que a gente confia nas tecnologias para tomar decisões que estão relacionadas diretamente aos nossos direitos, à nossa qualidade de vida?
Palavras: Como o professor pode se apossar dessas ferramentas e tecnologias, de forma a não reproduzir os preconceitos e problemas citados?
Horrara: Primeiro, educar a si próprio. Estar em contato com o conhecimento que é produzido pela academia, pelas organizações da sociedade civil, acompanhar os debates, explorar as ferramentas. Entender que, nesse processo de ensino e aprendizado, a gente nunca para de aprender e a gente vai ter que aprender para ensinar. Do mesmo jeito, compreender as tecnologias, que não há neutralidade, que as tecnologias digitais são só mais uma expressão da tecnologia, compreender as implicações que ela traz para o nosso cotidiano. E se propor a explorar junto dos alunos. Acho que ter também a capacidade de compreender que a gente não vai saber tudo e que, de fato, a gente está diante de um momento disruptivo para a forma com que nós aprendemos e para a forma com que nós conhecemos as coisas.
Palavras: Qual é, na sua visão, o futuro da educação a partir do surgimento dessas novas ferramentas? Será possível se desvencilhar delas no meio educacional, mesmo com as desigualdades de acesso?
Horrara: Eu penso que não há retorno. A gente virou ciborgue. Nossa vida está na palma da nossa mão. As tecnologias digitais estão muito integradas no nosso cotidiano. Eu entendo que não vai ser possível mais se desvencilhar dessas tecnologias. Então o futuro da educação a partir delas vai ser um futuro em que precisa ser construída uma consciência crítica, uma capacidade de análise, de checagem de informações e de entender como essas ferramentas nos dão suporte, mas que nós continuamos sendo responsáveis pelas escolhas que nós fazemos e que a geopolítica global vai ter influência na forma como nós conhecemos algo.
Palavras: Você tem sugestões de conteúdos e materiais que possam auxiliar um professor que não tem familiaridade com essas ferramentas a saber não só como utilizá-las em seu dia a dia, mas o potencial do trabalho delas com as crianças e jovens?
Horrara: Na associação Data Privacy Brasil de pesquisa, na qual eu trabalho como pesquisadora associada, a gente tem um projeto chamado IA na sala de aula, então vou deixar como recomendação principal.
Foto: João Henrique Menezes Lourenço
Confira conteúdos formativos cadastrando-se na Sala do Professor!