Preconceitos e erros  Quando a inteligência artificial é tendenciosa

Quer seja utilizada para pesquisas online, quer para moderação automatizada de conteúdo, a inteligência artificial é tão útil quanto seus conjuntos de dados subjacentes. |
Quer seja utilizada para pesquisas online, quer para moderação automatizada de conteúdo, a inteligência artificial é tão útil quanto seus conjuntos de dados subjacentes. | Foto (detalhe): © Adobe

Ao longo da última década, passamos grande parte de nossas vidas na esfera digital – uma esfera que é crescentemente controlada por um grupo restrito de corporações. Essas empresas exercem um controle considerável sobre o que podemos ver e dizer e também sobre quais tipos de ferramentas estão à nossa disposição.

Quando se trata de imagens online, esse controle é exercido através de algumas estratégias-chave: Em primeiro lugar, em termos daquilo que podemos ver. Empresas – e governos – restringem diversos tipos de conteúdo, desde o corpo humano nu até imagens ou vídeos que contêm informações privadas. Tomemos, por exemplo, a proibição de conteúdo sexualmente explícito pelo Instagram, ou a recente regra do Twitter de que um vídeo privado não pode ser compartilhado. Essas restrições, embora justificáveis, podem ter um impacto negativo sobre as pessoas que usam essas plataformas e podem ter uma razão legítima para o que estão compartilhando.

Em segundo lugar, plataformas populares como Snapchat, Instagram e TikTok oferecem filtros que distorcem nossas imagens – e, muitas vezes, nossa autoimagem. Esses filtros, que têm sido fortemente criticados por legisladores, psicólogos e outros por seu efeito na imagem corporal, nos apresentam uma percepção muitas vezes uniforme sobre a aparência que devemos ter. À medida que essa percepção se torna generalizada, ela pode permitir o estabelecimento de uma certa expectativa sobre a nossa aparência, o que potencialmente possibilita discriminação ou preconceito contra aqueles que optam por não adotar esses padrões.

A terceira – e talvez a mais preocupante – intervenção é a forma como as empresas usam algoritmos para veicular conteúdo em pesquisas ou em nossos feeds. O efeito que isso tem, particularmente na classificação e apresentação de imagens, é insidioso: algoritmos classificam rotineiramente imagens de maneiras discriminatórias, tendenciosas ou simplesmente erradas e podem ter consequências de longo alcance para os usuários das plataformas que empregam esses métodos.

Algoritmos classificam rotineiramente imagens de maneiras discriminatórias, tendenciosas ou simplesmente erradas.

Tomemos, por exemplo, um incidente ocorrido em 2015, quando a tecnologia de reconhecimento de imagem do Google classificou erroneamente pessoas negras como gorilas. Embora o incidente tenha sido ostensivamente não intencional, ele é um exemplo de como os algoritmos podem ser alimentados com dados de treinamento que geram resultados problemáticos. Os algoritmos podem ser puramente matemáticos, mas os dados que os alimentam são criados por humanos, que levam à mesa seus próprios vieses ou ignorâncias. Além disso, os algoritmos de aprendizado de máquina geralmente operam como caixas-pretas e não explicam como chegaram a uma decisão específica – deixando os usuários incapazes de entender se o erro foi resultado de racismo deliberado programado/incorporado ao código, ou simplesmente de um conjunto de dados mal elaborado. E, como as empresas geralmente não compartilham as suposições básicas que sustentam suas tecnologias e bancos de dados, os agentes terceirizados são incapazes de evitar que tais erros ocorram.

Embora histórias como essa possam ser facilmente expostas, os efeitos do uso crescente de ferramentas de inteligência artificial na moderação de conteúdos gerados por usuários de plataformas digitais são mais difíceis de descobrir, pois não podemos ver a grande maioria dos erros cometidos por essas tecnologias, e muito menos os inputs que os causam.

Como o ex-moderador de conteúdo Andrew Strait escreveu em seu recém-lançado livro Fake AI (Inteligência artificial falsa), “notoriamente ruins em identificar as nuances e os contextos dos discursos online, esses sistemas falham rotineiramente em identificar se um vídeo constitui violação ilegal de direitos autorais ou paródia legal, ou se um post com injúria racial é escrito por uma vítima de um crime de ódio ou seu agressor”.

O olho cego da IA

Um exemplo pertinente que foi bem documentado, no entanto, é o dano gerado pelo uso de inteligência artificial para classificar e remover conteúdo extremista e terrorista – e imagens em particular. Nos últimos anos, em um esforço apoiado por governos de todo o mundo para erradicar conteúdo extremista e terrorista, as plataformas passaram a confiar cada vez mais em algoritmos de aprendizado de máquina para detectar e remover conteúdos que se encaixem nessa descrição. Mas os classificadores utilizados são muitas vezes de natureza binária e, portanto, deixam pouco espaço para o contexto: se uma imagem contiver símbolos relacionados a um grupo terrorista conhecido, ela será classificada como conteúdo terrorista – mesmo que o motivo da presença do símbolo seja artístico ou em protesto ao grupo, por exemplo. Da mesma forma, o conteúdo documentado para fins históricos, de arquivamento ou de direitos humanos ainda será classificado e provavelmente removido. Confiar na tecnologia para uma tarefa com tantas nuances garante que os resultados serão embotados, deixando pouco espaço para a expressão essencial.

Quer seja utilizada para pesquisas online, quer para moderação automatizada de conteúdo, a inteligência artificial é tão útil – tão inteligente, pode-se dizer – quanto seus conjuntos de dados subjacentes. Dados esses que são propensos a erros e vieses humanos. Portanto, para combater a discriminação decorrente do uso indevido dos dados, devemos ser capazes de espreitar por detrás da cortina para podermos entender – e combater – as suposições e vieses inerentes aos seres humanos que criam os conjuntos de dados que a cada dia  ditam mais o que vemos e como vemos.

Mas, embora a transparência nos permita entender melhor o problema e combater erros específicos, nós, como sociedade, devemos começar a fazer perguntas maiores sobre o papel que queremos que essas tecnologias desempenhem na orientação de nossa visão de mundo. Para isso, precisamos parar de ver a IA como algo neutro e começar a entender a natureza inerentemente política de seu uso.

Quer seja utilizada para pesquisas online, quer para moderação automatizada de conteúdo, a inteligência artificial é tão útil – tão inteligente, pode-se dizer – quanto seus conjuntos de dados subjacentes. Dados esses que são propensos a erros e vieses humanos.

O uso da IA no combate ao extremismo serve como um exemplo importante disso. As normas subjacentes ao uso da IA neste contexto são inequivocamente políticas – são, para dizer francamente, divisórias, separando a violência aceitável (estatal) da de (certos) agentes não estatais. Embora haja justa causa para remover da vista conteúdo violento, as normas subjacentes não se preocupam apenas com imagens violentas, mas também com qualquer coisa ligada a grupos classificados como extremistas por uma empresa ou um governo. O resultado final, portanto, não é apenas a mitigação do dano, mas o apagamento total. A IA nunca é neutra, e seu uso é inerentemente político: por que o conteúdo de grupos terroristas é removido da vista, em vez do conteúdo violento em geral? A IA nunca é neutra, e seu uso é inerentemente político: por que o conteúdo de grupos terroristas é removido da vista, em vez do conteúdo violento em geral? | Foto (detalhe): © Adobe

Da segurança digital ao apagamento total

Há inúmeros outros exemplos: o apagamento da expressão sexual sob o disfarce de “segurança online”, ou a classificação de informação e desinformação, são ações conduzidas em grande parte por IA treinada em conjuntos de dados que também se baseiam em normas inerentemente políticas. Embora para todos esses exemplos as normas em si sejam conhecidas, a taxa de erro na maioria dos casos não é. Em outras palavras, embora possamos dissecar as normas e defender sua mudança é impossível ver, e portanto difícil compreender, o quanto a expressão legítima (ou seja, expressão que não se insere nas restrições) é adicionalmente capturada e removida pela IA com um mínimo de supervisão, ou mesmo sem nenhuma.

O que, então, devemos fazer, além de entender a natureza política da IA e lutar por sua transparência? Devemos simplesmente aceitar esse quadro como nossa nova realidade, ou há outras maneiras possíveis de intervir para mudar o curso do “progresso”?

Como argumento em meu recente livro, Silicon Values: The Future of Free Speech Under Surveillance Capitalism (Valores do Silício: O futuro da liberdade de expressão sob o capitalismo de vigilância), o futuro continua sendo nosso. Não devemos simplesmente aceitar esse novo Zeitgeist como um fato e, em vez disso, insistir que “as decisões sobre o que nos é permitido expressar devem receber mais atenção humana e mais cuidado, e não ser entregues aos caprichos de agentes e algoritmos irresponsáveis”.

Isso significa, em última análise, que não devemos apenas procurar mitigar os danos causados por esses sistemas tecnológicos, mas também remodelá-los, redimensioná-los e talvez até desmantelá-los.

Leia mais…

Failed to retrieve recommended articles. Please try again.