Racismo algorítmico

Entre a (des)inteligência artificial e a epistemologia da ignorância

Tarcízio Silva

Publicado em: 23/11/2020

Categoria: A Revista, Colunas Móveis, Destaque

o Fifteen Pairs of Hands (2012), de Bruce Nauman (Foto: Art Observer / Reprodução)

Nos últimos 20 anos, a abundância de dados gerados na internet e através da infraestrutura de sensores físicos, humanos e sociais reforçou a abordagem conexionista-indutiva da inteligência artificial. Com uma quantidade tão grande de dados sobre inputs (entradas) e outputs (saídas, resultados) de processos de interesse comercial e/ou político, abordagens de aprendizado profundo, onde o próprio programa é desenvolvido e otimizado continuamente para os fins do sistema, tornaram-se realidade, com diferentes graus de autonomia. Resumindo, trata-se de dar quantidades massivas de exemplos etiquetados e conectados de dados aos sistemas de IA referentes a um domínio de atuação, graças a um enorme histórico de informação gerada anteriormente, permitindo ao sistema encurtar as distâncias e os recursos necessários entre input e output. Os dados que alimentam os novos sistemas baseados em IA com a virada computacional são dos mais variados: histórico de milhares de contratações de uma grande corporação; locais e horários de crimes e perfis de criminosos abordados pela policía; gastos, procedimentos e taxas de recuperação em pacientes da saúde pública; buscas de perfis e posterior engajamento com vídeos em plataformas de mídias sociais; trajetos, rentabilidade e gorjetas de motoristas, e tudo o que você conseguir imaginar que possa estar registrado através de interfaces de aplicativos, sistemas de geolocalização, câmeras e sensores.

Parece fantástico, não é? Bilhões ou trilhões de pequenas decisões realizadas por indivíduos, empresas e instituições públicas alimentam bases de dados gigantescas que podem ser perscrutadas como fonte de aprendizado por softwares cada vez mais eficientes, graças à Inteligência Artificial. Otimização, eficácia, lucratividade, gestão enxuta e inovação parecem não ter limites. Em prol do progresso, defende-se como autoevidente que o caminho neoliberal por mais tecnologia, “dataficação” e Inteligência Artificial seria o único e correto a ser seguido. Entretanto, é possível rejeitar a ode à Inteligência Artificial que se baseia em dados para replicar o status quo e servir à reprodução das relações sociais e políticas contemporâneas no Ocidente, plenamente comprometidas com a ignorância sobre a realidade social, racial e histórica. Ou, mais especificamente, com a epistemologia da ignorância branca, uma lente conceitual proposta pelo filósofo jamaicano Charles Wade Mills.

Ancestrais das tecnologias algoritmicas
Mills aponta que, durante os últimos séculos, o Ocidente foi construído pelas realidades da dominação eurocêntrica dos artefatos de tortura e vigilância colonial e escravista, ancestrais das tecnologias carcerárias algorítmicas de hoje, até a dominação epistêmica distribuída e afiliada nos colonialismos internos.
Neste Ocidente eurocentrado, a epistemologia da ignorância branca, conforme Mills aponta em The Racial Contract (Cornell University Press, 1997), parte do contrato racial que promove padrões de disfunções cognitivas localizadas e globais – mas funcionais psicológica e socialmente. Ironicamente, esse contrato racial, ou pacto narcísico da branquitude, elaboração conceitual da psicóloga Maria Aparecida da Silva Bento, produz o resultado de que a branquitude não é capaz de – ou não busca – entender o próprio mundo que moldou, em defesa da manutenção dos próprios privilégios, enquanto abdicam da carga psicológica que estaria em jogo ao enfrentar a realidade da desigualdade e desumanização dos outros decorrentes de tais vantagens.
Por meio dessa lente conceitual, é mais palpável entender como tantas manifestações de racismo algorítmico podem surpreender os poderes hegemônicos públicos e empresariais. Nos anos recentes, testemunhamos casos de robôs que não conseguem ver rostos de pessoas negras, reconhecimento facial que gera falsos positivos para criminosos em rostos negros, algoritmos de alocação de recursos de saúde que punem pacientes negros, carros autônomos que atropelariam pedestres negros com mais frequência, melhores condições para hosts brancos em aplicativos de hospedagem, e muitos outros, em listas que não param de crescer. Nessa direção mantenho a “Linha do Tempo do Racismo Algorítmico” com atualizações contínuas em meu site.

Mudanças nos desenhos do poder 
Mas, se a profusão dos casos impressiona, é preciso lembrar: apenas uma pequena quantidade de sistemas algorítmicos está sendo analisada ou auditada, número pífio em comparação à aceleração de suas implementações descuidadas. E. Tendayi Achiume, relatora especial da ONU e professora de Direito da Universidade da Califórnia em Los Angeles (UCLA), cita algumas dezenas de casos famosos em um relatório recente (Racial Discrimination and Emerging Digital Technologies: A Human Rights Analysis, 2020). Nele Achiume defende que dados, códigos e sistemas não devem estar protegidos do escrutínio público por argumentos falhos como “segredo de negócio”. Lucratividade em um mundo cada vez mais desigual não pode estar acima do bem público. Entre suas recomendações, ela enfatiza que mudanças genuínas nos desenhos de poder nos setores de tecnologias digitais emergentes são algo absolutamente necessário – em contraposição aos esforços superficiais para incluir minorias, conhecidas como “tokenismo”. Essa ações se esgotam em iniciativas de diversidade que não mudam processos ou prerrogativas, apenas emulam representatividades sem poder.
Não se trata de algoritmos racistas ou apenas “enviesados” nas bases de dados e códigos, mas sim de racismo algorítmico: a intensificação da opacidade e da ignorância para a reprodução das desigualdades e estruturas de poder contemporâneas. Subjacente à lógica do aprendizado de máquina, o poder hegemônico estabelece que as decisões e dinâmicas sociais, comerciais e de gestão pública nos últimos anos estavam corretas e devem ser replicadas e reforçadas, com mais eficácia e opacidade, por sistemas algorítmicos. Abdicar da epistemologia da ignorância – tanto sobre a tecnologia quanto sobre o racismo – é indispensável para um futuro justo.

Tags: , , , , ,

Nota de esclarecimento A Três Comércio de Publicações Ltda. (EDITORA TRÊS) vem informar aos seus consumidores que não realiza cobranças por telefone e que também não oferece cancelamento do contrato de assinatura de revistas mediante o pagamento de qualquer valor. Tampouco autoriza terceiros a fazê-lo. A Editora Três é vítima e não se responsabiliza por tais mensagens e cobranças, informando aos seus clientes que todas as medidas cabíveis foram tomadas, inclusive criminais, para apuração das responsabilidades.