icon-plus
Detalhes da instalação Selfie Dataset (2015), banco de dados de autorretratos extraídos das redes sociais (Foto: Paula Alzugaray)
Postado em 06/11/2020 - 2:26
Performatividade calculada
Exposição pré-pandemia revela como sistemas de Inteligência Artificial de redes sociais categorizam o mundo e reproduzem assimetrias

Humanos programam máquinas que classificam imagens, que treinam humanos. Alguns passos além da imagem técnica existe um gênero de fotografia ao qual se convencionou chamar de “imagens de treinamento”. Elas são coletadas na internet e rotuladas para a alimentação de sistemas de Inteligência Artificial desenhados para a vigilância e o reconhecimento facial. Esse gênero de imagem criada 88 especificamente para e, muitas vezes, por computadores foi o objeto da mostra Training Humans, que esteve em cartaz no Osservatorio Fondazione Prada, de Milão, até fevereiro de 2020.

Com curadoria do artista Trevor Paglen e da pesquisadora Kate Crawford, a mostra apresentou uma evolução das “imagens de treinamento” dos anos 1960 até hoje, mostrando que, embora os dados utilizados para programação de máquinas tenham mudado, os critérios que determinam o olhar maquínico de classificação de indivíduos têm parâmetros muito semelhantes àqueles utilizados pela criminologia do fim do século 19.

Os curadores argumentam que, em suas telas, telefones celulares e deslocamentos na cidade, os indivíduos são hoje monitorados, representados, interpretados e codificados por tecnologias de dados que reproduzem controversos sistemas de julgamento moral aplicados pelo psicólogo norte-americano Paul Ekman, que afirmou que a amplitude do sentimento humano poderia ser reduzida a seis emoções universais. Teorias como essas reaparecem nos sistemas de IA que estão hoje medindo as expressões faciais das pessoas, a fim de avaliar se são propensas a ter doenças mentais ou cometer crimes, o que nos remete aos pressupostos do criminologista Alphonse Bertillon (1853-1914), pai do retrato falado. Em sua Filosofia da Caixa Preta: Ensaios para uma Futura Filosofia da Fotografia (1983), Vilém Flusser já previa o desafio que a sociedade enfrentaria ao procurar decifrar as implicações por trás da cultura visual maquínica e das tecnologias da imagem cotidiana. E a mostra Training Humans prestou-se a esse desafio.

A exposição trouxe à luz as caixas-pretas de 19 sistemas de IA desenvolvidos desde 1963. Essa genealogia mostrou que os projetos, que eram inicialmente desenvolvidos por agências governamentais de inteligência – como o Facial Recognition Project Report, da agência de inteligência dos EUA (a CIA), atualmente são elaborados por centros de pesquisa universitários em colaboração com as grandes corporações da internet.

O sistema Imagenet (2009), por exemplo, é um banco de dados que buscou representar a totalidade dos objetos do mundo, a partir da coleta de milhões e milhões de imagens postadas nas redes. A responsabilidade pela classificação dessas imagens ficou a cargo de analistas da agência de serviços MTurk, da Amazon, e as legendas revelam todos os tipos de preconceitos e discriminações – de racismo a misoginia e sexismo.

A mostra apresenta um pequeno recorte desse banco de dados, com foco nos conjuntos de retratos de pessoas. Outros projetos, como Selfie Dataset (2015), foi criado com fotos extraídas do Flickr, ou Labeled Faces in The Wild (2007), formado por 13.233 imagens de 5.749 celebridades usadas em pesquisas de reconhecimento facial. Ele inclui, por exemplo, uma galeria de personas incorporadas por Cindy Sherman, nas séries Untitled Film Stills (1977- 1980) e Untitled (1987-1995), em que a artista explora padrões cinematográficos, máscaras e monstruosidades.

Os dois últimos projetos apresentados na mostra são de autoria do próprio Trevor Paglen. Age, Gender, and Emotions in the Wild (2019), é uma instalação interativa, produzida a partir de modelos desenvolvidos por pesquisadores do Facebook e da Amazon, a fim de estimar a idade, o gênero e o estado emocional de seus usuários. Na instalação, a imagem do visitante é captada por uma câmera instalada no ambiente da exposição e transmitida em tempo real em uma tela. Diante da tela, o visitante relaciona-se com sua própria imagem, como se estivesse diante de um espelho. Com a face enquadrada, ele tem contato com a velocidade de “pensamento” do sistema, que registra estimativas para sua idade, gênero e emoção. A segunda instalação, Image-Net Roulette (2019), usa uma rede neural para categorizar o espectador e palpitar sobre sua atividade e profissão. Em ambos os casos, a variação esquizofrênica dos dados aplicáveis à face – que no meu caso alteraram de 25 a 43 anos; de feminino para masculino; e de medo para tristeza e neutralidade, sem chegar a uma conclusão – indica a arbitrariedade das leituras.

Posterior à pesquisa de Paglen e Crawford, o aplicativo de vídeos TikTok – atualmente no centro de uma crise internacional entre China e EUA por ter ocultado, por meio de uma camada criptográfica, o recolhimento de identificadores únicos de milhões de aparelhos móveis – trouxe à tona questões relativas à ética do rastreamento de dados que se prestariam ao debate proposto pela exposição.

Trata-se aqui, então, de reconhecer a perversa lógica de um ciclo vicioso: somos treinados pelos sistemas a performar de determinadas maneiras em milhares de imagens publicadas nas redes sociais. Dessa performatividade calculada são extraídos os padrões que classificam o nosso comportamento, impondo-nos as tipologias de uma suposta “normalidade”. Sistemas como esses, que comem imagens e cospem regras, nos servem para pensar o que exatamente significa o desejo de “voltar ao normal”, após a pandemia.

Serviço
Training Humans
Fondazione Prada Osservatorio
De 12/9/2019 a 24/2/2020
fondazioneprada.org/project/training-humans