The Cleaners

The Cleaners ©  © gebrueder beetz filmproduktion The Cleaners_Foto 2 © gebrueder beetz filmproduktion

Assistir ao filme agora

Conversas .doc

​Enxugando gelo na Caixa da Pandora

Por Leonardo Foletto*

Em On Technical Mediation, um texto de 1994 hoje clássico dos estudos de ciência e tecnologia, o filósofo Bruno Latour apresenta uma ideia de mediação tecnológica que ilustra como se dá a relação entre ser humano e tecnologia. Ele faz isso ao analisar dois slogans relacionados a associações favoráveis e contrárias à venda de armas: Guns kill people e People kill people, not guns. O primeiro seria, a grosso modo, materialista, pois considera que as armas de fogo (objetos) matam pessoas, enquanto o segundo seria humanista, ao dizer que pessoas – e não armas - matam pessoas, considerando a arma como neutra, apenas um meio para um fim. Latour, então, vai dizer que nem arma nem cidadão são responsáveis pelo ato de matar: a responsabilidade é dividida entre os vários atores envolvidos na ação.
 

“Você é diferente com uma arma na mão; a arma é diferente com você segurando-a. Você é um outro sujeito porque segurou a arma; a arma é outro objeto porque ela entrou em uma relação com você ”.

(LATOUR, 1994, p.33)

Desde a ascensão das redes sociais como principal meio onde as pessoas agem e interagem na internet, a perspectiva de mediação como algo em movimento entre o ser humano e um objeto técnico tem ganhado força para explicar um outro fenômeno caro aos estudos de ciência e tecnologia, a agência de uma dada tecnologia na ação humana. O quanto uma rede social como o Facebook, uma assistente pessoal como a Alexa ou as câmeras do VAR fazem os seres humanos fazerem coisas? Seria uma rede social responsável pela perseguição a uma minoria étnica num país como Mianmar, ou são as pessoas do país (especialmente o clero budista) que perseguem os muçulmanos orohingyas há décadas e que agora, alimentados por mentiras espalhadas na rede social, tiveram as condições ideais para aumentar essa perseguição a ponto de desencadear assassinatos? Qual o limite de responsabilidade de uma tecnologia e do ser humano? Podemos “jogar a culpa” pela morte de alguém - ou pela queda de um regime democrático, ou pela eleição de um político fascista - em uma rede social? 

*

“The Cleaners”, documentário dirigido pelos alemães Moritz Riesewieck e Hans Block, é um exemplo contundente de como um sistema técnico pode fazer outros fazerem coisas - terríveis, neste caso. O filme, lançado em festivais em 2018, mostra como empresas de tecnologia dos Estados Unidos (especialmente Facebook) contratam empresas filipinas para excluir da rede casos de exploração infantil e apologia ao terrorismo. O país asiático é um polo dos chamados moderadores de conteúdo, um exército de quase 150 mil pessoas espalhadas pelo mundo contratados pela rede social criada por Mark Zuckerberg para “faxinar”, 24 horas por dia, 7 dias por semana, as páginas da rede social e excluir conteúdo que não estaria de acordo com as diretrizes da comunidade da empresa. 

É um trabalho torturante, marcado por horas diárias assistindo milhares de cenas violentas - suicídios, estupros, cabeças decepadas, explosões, entre muitas outras formas de violência explícita, discurso de ódio, pedofilia, propaganda terrorista e bullying diversos. Como um Tinder da violência extrema, um moderador assiste uma imagem (foto ou vídeo, principalmente) e, em 9 segundos, precisa marcar “Delete” ou “Ignore” num software; são cerca de 25 mil imagens por dia. Sistemas de inteligência artificial ajudam, mas não detectam tudo, e aí que entra o trabalho dos moderadores, que passam por treinamentos precários por funcionários mais experientes da empresa - como se pudesse haver algum tipo de treinamento psicológico para um ser humano dar conta de digerir a visão diária de imagens torturantes como as que são categorizadas pelos cleaners.

O documentário também mostra imagens da vida cotidiana dos moderadores de conteúdo da Filipinas, os caminhos tortuosos que fazem nos lotados transportes coletivos do país asiático para irem de suas casas a até sede da empresa, uma parte de seu trabalho (dos que se dispuseram a mostrar), algo de suas vidas como pessoas “normais”. Há uma moderadora que, religiosa fervorosa, vê seu trabalho como uma missão para livrar os pecados do mundo - enquanto sonha com os diferentes formatos e cores de pênis que se acostumou a ver no trabalho. Outro gosta de ir a shows sexy de um grupo de dançarinas apoiadoras do atual presidente, o ditador Rodrigo Duterte - que, em uma cena mostrada no filme, fala do assassinato em massa dos judeus pelo Nazismo de Hitler como inspiração ao que ele quer fazer com os usuários de drogas em seu país. O documentário contrapõe cenas da realidade dos moderadores em Filipinas com depoimentos de pessoas que trabalham ou trabalharam nas Big Techs dos Estados Unidos, como Google e Facebook. À realidade crua da vida de pessoas de um sul global empobrecido, o filme contrapõe as imagens anódinas dos Senadores estadunidenses em sabatina com executivos destas empresas no Congresso - que tergiversam e não respondem diretamente sobre a responsabilidade de suas empresas na propagação de discursos de ódio em seus complexos sistemas algorítmicos. 

**

Algumas perguntas são inevitáveis: o Facebook faz as pessoas fazerem coisas, como cometer assassinatos? O sistema de recomendação dos canais relacionados do YouTube, ao estimular o “mergulho” em determinados assuntos segregados, está formando um exército de neo-fascistas? É o espalhador de informação falsa ou o responsável pelo sistema técnico (o “meio”) que deveria ser punido quando seus atos têm consequências diretas na realidade? Voltando a Latour: você é diferente com um computador e uma conta de Facebook à disposição para publicar qualquer informação? O Facebook é diferente com você a tornando uma máquina de desinformação e discurso de ódio? 

Nos estudos que consideram a mediação como um ato dividido entre os vários atores envolvidos na ação, sejam eles humanos ou não, há um lema corrente: siga os rastros. A atenção para o movimento, para o que está circulando, determina que não é possível saber, a priori, o que está importando em uma dada ação. Todo movimento deve então ser analisado com a mais farta documentação possível. Assim é que se cria a chance de determinar quem age modificando o comportamento dos outros atores, fazendo eles fazerem coisas, e quem age sem modificar - ou modificando de forma a não deixar rastros visíveis.

Há cada vez mais pesquisas que mostram que sistemas técnicos como o Facebook e o Google não apenas modificam a ação dos atores humanos no processo – como modificam muito. O espalhamento de informações falsas, por exemplo, hoje chamadas fake news, existe desde que o primeiro homem mentiu para sua tribo sobre o sucesso (ou não) da caça de um animal. Mas ganha um escala até então inédita na história com sistemas de circulação de informação rápidos, ponto a ponto, privados e pessoais, sem possibilidades de filtragem de conteúdos, que atingem milhares de pessoas em questão de minutos, como é o caso que ocorre num sistema de troca de mensagens instantâneas como o WhatsApp. O discurso de ódio e a violência explícita de um ser humano contra outro por motivos religiosos existe desde que se inventou a religião, há milhares de anos. Mas a possibilidade dessa mesma violência ganhar circulação imediata para milhares de pessoas, e ao se espalhar motivar ainda mais violências, sem possibilidades de filtragem à tempo de serem evitadas, tem ocorrido de forma inédita na história da humanidade a partir da ascensão das redes sociais como o principal canal de circulação de informações do mundo. O que diferencia um momento do outro, a escala de antes para a de hoje? Entre outros fatores, principalmente a ação das tecnologias.

Poderia citar também diversos outros casos em que a ação das tecnologias sobre comportamentos humanos trouxe resultados amplamente benéficos, como os remédios, as vacinas, os tratamentos contra doenças até então incuráveis - para ficar apenas no campo mais evidente da saúde. Mas é certo que as tecnologias digitais das últimas décadas, criadas por pessoas em suas bolhas ricas de países de Primeiro Mundo, trouxeram mudanças comportamentais profundas. Um empreendedor branco do Vale do Silício como Zuckerberg jamais imaginaria que o uso massivo de uma rede social que ele criou para “classificar mulheres” de sua Universidade poderia provocar um linchamento em Mianmar, caso tratado em “The Cleaners”. O advento de algumas tecnologias não criam sozinhas problemas, mas tal qual uma Pandora contemporânea, estão abrindo a caixa de males e amplificando-os até limites que ainda não sabemos.

Hoje, somos todos outros porque usamos redes sociais como o Facebook e o YouTube; e estas tecnologias são cada vez mais outras quando entram em contato com mais e mais humanos sedentos por comunicar. Que outros seremos quando informações falsas e discursos de ódio podem circular em sistemas técnicos da mesma forma, de igual para igual, que verdades checadas e apuradas por diversas fontes? Que outras tecnologias estão se desenvolvendo quando estas mostram ter cada vez mais ação comprovada sobre atos de violência e extermínio de seres humanos e de todo o ecossistema ambiental? Como tomar medidas para regular a agência das tecnologias sobre a vida humana e o planeta que não pareçam que estamos a enxugar o gelo - ou seja, ações que na superfície podem parecer funcionar, mas que a médio prazo se tornam apenas paliativos porque não mexem de forma substancial no sistema econômico que lucra com a afirmação e a propagação da violência da mesma maneira que com verdades e informações verdadeiras e que respeitam e cuidam da vida humana?

Estamos diante do maior dilema da nossa geração. 


***


*Leonardo Foletto é jornalista e Doutor em Comunicação pela UFRGS. Pesquisa cultura livre, tecnopolítica e ativismo digital; seu último livro é “A Cultura é Livre: Uma história da Resistência Antipropriedade”, de 2021, com prefácio de Gilberto Gil. Edita o BaixaCultura (https://baixacultura.org) desde 2008 e atualmente é pesquisador no LabCidade (FAU-USP) e Chapter Leader do Creative Commons Brasil.

 
Conversas.doc é um projeto de crítica no qual artistas, jornalistas, estudantes, críticos e agentes culturais produzem conteúdos sobre cada filme. Textos, fotos, vídeos e ilustrações fazem parte da iniciativa, que visa promover uma conversa da cena local com os filmes através de conteúdos virtuais.
 

Top