Microagressões algorítmicas contra lésbicas: entre a invisibilidade e a violência
Julianna Motter
Ravena Maia
Vilbégina Monteiro
Autores como Tarcizio Silva (2020a), Safiya Noble (2018) e Taina Bucher (2018) propõem formas de análises críticas dos crescentes processos de plataformização das sociedades contemporâneas que não se detém somente aos aspectos econômicos envolvidos no que tem sido chamado de capitalismo de vigilância. Nesse sentido, trazem olhares sobre os aspectos semióticos e materiais que têm sido (re)produzidos e mediados pelas tecnologias digitais e como eles (re)instauram regimes de (in)visibilidades (FOUCAULT, 1987), especialmente no que tangem populações historicamente vulnerabilizadas.
Desse modo, refletir sobre processos sociais em contexto de plataformização (VAN DIJCK; POELL; WAAL, 2018) exige saídas metodológicas engenhosas que dêem contorno e traços de nitidez à processos opacos. Essas saídas tendem a ser uma espécie de mapa impreciso, ou seja, um referente em que nos possibilita espiar, farejar, tatear fenômenos obscurecidos pela lógica comercial, com a intenção de desvelar pistas ou marcos para uma análise mais criteriosa; ainda que parcial (HARAWAY, 2009). Assim, os esforços cartográficos requeridos devem abarcar a complexidade das redes sociotécnicas que compreendem entidades opacas em jogo, tais como os algoritmos, os próprios dispositivos e suas interfaces, o contexto econômico no qual estão inseridos, a apropriação realizada pelos usuários, as atualizações dos desenvolvedores, etc.
Pesquisas como a de Silva (2020a), por exemplo, se localizam na necessidade de compreender como essas tecnologias digitais têm mediado as relações raciais. E isso significa não apenas olhar para a superfície dos discursos raciais visíveis dentro e a partir dessas tecnologias nas interações entre os indivíduos, mas principalmente para aqueles discursos tão profundamente engendrados no funcionamento da própria estrutura, que passam despercebidos ou são naturalizados a partir de um discurso de neutralidade tecnológica intencionalmente construído. Os modos de produção no campo tecnológico historicamente privilegiam treinamentos e produções enviesadas no sistema, incorporando ideologias opressoras de seus idealizadores. Além disto, sistemas por vezes são alimentados a partir de base de dados que espelham as desigualdades e discriminações vigentes na sociedade, consequentemente, algoritmos já se desenvolvem replicando recortes discriminatórios presentes nos dados primários. Portanto, casos que são reportados como falhas e bugs nas plataformas são encontrados com certa frequência e, ao serem mapeados ao longo do tempo, demonstram um comportamento de racismo ou de outras opressões.
Assim, buscamos aqui, guiadas e atravessadas por mapas metodológicos traçados para o estudo de viés algoritmo, refletir sobre (re)produção de discriminações e opressões sistêmicas engendradas nas estruturas das tecnologias digitais. Para tanto, seguiremos uma trilha de pistas e rastros gerados pelas mobilizações #verificasapatao e da campanha #SEOLesbienne, amparadas pelos estudos de gênero e sexualidade, métodos digitais e psicologia social.
Inspiradas na linha do tempo do racismo algorítmico proposta por Silva (2020b), os casos escolhidos foram denúncias feitas por usuários ou registros do próprio funcionamento das plataformas e dizem respeito a algumas das plataformas mais importantes da atualidade: o buscador da Google, o YouTube, o Facebook, o Twitter e o Instagram. Todos eles parecem expressar um tipo de discriminação algorítmica que amplia a ideia de um só algoritmo ou plataforma expressando a violência, mas de toda uma estrutura. Os casos apresentados têm o horizonte a heterossexualidade compulsória e a cisnormatividade como modelos de comportamento, moral e corporeidade, impulsionados também por essas tecnologias digitais e de automação.
Em agosto de 2020, durante o Mês da Visibilidade Lésbica, produtoras de conteúdo lésbicas se organizaram para pedir a verificação em duas plataformas de redes sociais, o Instagram e o Twitter. A verificação, para produtores de conteúdo, consiste na possibilidade de ter maior segurança garantida pela plataforma no que diz respeito ao uso indevido dos conteúdos e imagens gerados e na criação de perfis fakes.
Ana Claudino, a @sapataoamiga, precisou denunciar um perfil fake que se passava por ela no Instagram e, após passar pelo episódio, teve sua verificação recusada pela plataforma (Figura 1). A produtora já havia solicitado uma verificação e sido recusada anteriormente, assim como outros perfis de produtoras de conteúdo lésbicas. Vários usuários começaram a marcar o perfil do Instagram em um esforço de mobilização por alteração na política de verificação da plataforma, mas não houve nenhuma resposta ou mudança.
Motivadas por movimentos de verificação no Twitter, como por exemplo, o #verificapcd, que buscava, através do selo, mais notoriedade para as pessoas com deficiência na plataforma, @sapataoamiga, @pretacaminhao, @afrocaminhao e outras produtoras de conteúdo lésbicas iniciaram, no Twitter, a campanha #verificasapatao (Figura 2). A hashtag pretendia conseguir que perfis de produtoras de conteúdo lésbicas negras, indígenas, trans, PCDs, periféricas, dentre outras, fossem verificadas. Embora a campanha #verificasapatao tenha chegado aos Trending Topics, nenhum dos perfis que demandava o selo foi verificado, ao contrário da campanha #verificapcd, que teve vários perfis verificados, independente do número de seguidores.
Entendemos que os silenciamentos das plataformas às demandas das produtoras de conteúdos lésbicas ou mesmo à falta de clareza quanto aos modos de governança da plataforma (no caso, os critérios adotados nas validações de perfis) reiteram regimes de invisibilidades e se constituem como prática estrutural discriminatória de microagressão. Este caso é exemplar para compreender a noção de microagressão não-verbal, postulada por Sue et al. (2007) como microinvalidações pois negam e anulam subjetividades, sentimentos e realidades experienciais destas mulheres. Além disto, ao deslegitimar uma produção de conteúdo de grupos minoritários, as plataformas reiteram a discriminação online através da desinformação, já que a validação destes perfis evita notícias e perfis fakes, além de fornecerem subsídios para manutenção (e possibilidades de monetização) de conteúdos que estimulem valores sociais plurais e conscientes. Importante destacar que estas e outras formas de microagressões são cotidianas e recorrentes, manifestadas de forma sutil, porém paralisantes e com consequências diretas na formação de subjetividades lésbicas.
Historicamente, as narrativas das lesbianidades são cercadas por invisibilidades, especialmente se tratando de lésbicas negras, indígenas, trans, periféricas, PCDs, gordas, etc, o que parece resvalar ou ser novamente mediado pelos algoritmos de algumas plataformas. Outros exemplos tocam no que diz respeito à censura (Figura 3) e à fetichização dos corpos lésbicos através da pornografia (Figura 4), uma resposta comum dos buscadores (MOTTER, 2018) e que já foi motivo de campanhas, como a #SEOLesbienne, em 2019.
Controvérsias como estas, relacionadas com censura aos conteúdos lésbicos online, foram apontadas nos estudos de SOUTHERTON et al. (2020) ao demonstrar o quanto “esses sistemas de classificação de conteúdo e as respostas das plataformas às críticas públicas operam como tecnologias produtoras de normas”. Os autores partem da noção de cidadania sexual, caracterizando diversas “reivindicações sexuais de pertencimento” (AGGLETON et al., apud SOUTHERTON et al., 2020), para argumentar as problemáticas dos limites entre sexualidade e sexo nos conteúdos online e o quanto que as respostas das plataformas para distinguir adequadamente estas fronteiras (recurso de “modo seguro”, “modo restrito”, ou conteúdo adulto) corroboram com a heteronormatividade e com o direcionamento de um sujeito LGBTQ sem desejo, separado de uma sexualidade. Pode-se afirmar, portanto, que a fetichização dos corpos lésbicos expostos nos buscadores e as censuras recorrentes à sexualidade são, respectivamente, microinsultos e microinvalidações que tornam visíveis entendimentos normativos do que é uma cidadania sexual LGBTQ e como ela pode ser praticada online.
Histórias continuam a contar histórias. E narrativas continuam a produzir narrativas.
Os casos exemplares apresentados aqui nos apontam algumas pistas para direcionar nossas análises na percepção da agência das plataformas na re(produção) de opressões e discriminações. Os exemplos demonstram o quanto que as tecnologias digitais (re)criam regimes de visibilidade (FOUCAULT, 1987) instituindo modos de fazer ver, e como a postura enviesada sobre as coisas que são ou não vistas endossam as microagressões cotidianas. Apontamos duas consequências imediatas destas invisibilidades, uma diz respeito à plataforma e outra a seus usuários. Primeiramente, ao silenciar narrativas e experiências das diversidades de atores sociais que disputam os espaços de hegemonia, as plataformas explicitam uma postura discriminatória estrutural, descartando informações úteis na elaboração de inteligências algorítmicas mais complexas e diversas, e de governanças transparentes para minimizar as microagressões. Segundo, há uma modulação online na subjetividade de grupos minoritários para adequar-se não somente às normas de uma sociedade opressora, como também à performatividade de um algoritmo enviesado, numa tentativa de obter as visibilidades, os reconhecimentos, a monetarização, enfim uma existência igualitária perante a gramática de ação da plataforma.
O rastreamento desses casos típicos nos convida a pensar como as tecnologias estão cada vez mais implicadas nas violências e discriminações e amparadas pela existência de um espaço digital totalmente desregulado. A Governança e agência algorítmica efetivadas através das várias plataformas, como o Instagram, Facebook e Google, regulam como, com quem, de que forma e onde histórias são narradas, criando movimentos e devires, mas principalmente ajudam ou acabam por estabilizar sentidos e/ou informações sobre determinados sujeitos ou assuntos.
Ainda que o mapa possível a ser utilizado nesses estudos seja impreciso; é urgente criar métodos para observar e refletir sobre a intervenção desses atores supostamente neutros na co-produção de opressões e discriminações de populações subalternizadas.
REFERÊNCIAS
BUCHER, Taina. If… then: Algorithmic power and politics. Oxford University Press, 2018.
FOUCAULT, Michel. Vigiar e punir: nascimento da prisão; tradução de Raquel. Ramalhete. Petrópolis, Vozes, 1987. 288p.
HARAWAY, Donna. Saberes localizados: a questão da ciência para o feminismo e o privilégio da perspectiva parcial. Cadernos Pagu, Campinas, SP, n. 5, p. 7–41, 2009. Disponível em: https://periodicos.sbu.unicamp.br/ojs/index.php/cadpagu/article/view/1773. Acesso em: 13 nov. 2020.
MOTTER, Julianna Japiassu. Falar do ódio fora do ódio: testemunho de ativistas lésbicas sobre o discurso de ódio nas redes sociais. 2018. 89 f. Dissertação (Mestrado em Direitos Humanos e Cidadania) — Universidade de Brasília, Brasília, 2018.
NOBLE, Safiya Umoja. Algorithms of oppression: How search engines reinforce racism. NYU Press, 2018.
SILVA, Tarcízio. “Racismo Algorítmico em Plataformas Digitais: microagressões e discriminação em código”. In: SILVA, T. (ED.). Comunidades, Algoritmos e Ativismos Digitais: olhares afrodiaspóricos. São Paulo: Editora LiteraRUA, 2020a.
SILVA, Tarcízio. Linha do Tempo do Racismo Algorítmico. Blog do Tarcízio Silva, 2020b. Disponível em: <http://https://tarciziosilva.com.br/blog/posts/racismo-algoritmico-linha-do-tempo>. Acesso em: 13, nov. 2020.
SOUTHERTON, Clare. et al. Restricted modes: Social media, content classification and LGBTQ sexual citizenship. new media, p. 19, 2020.
SUE, Derald Wing. et al. Racial microaggressions in everyday life: Implications for clinical practice. American Psychologist, v. 62, n. 4, p. 271–286, 2007.
VAN DIJCK, José; POELL, Thomas; WAAL, Martijn De. The Platform Society. New York: Oxford University Press, USA, 2018.