Algoritmocracia: sonho ou pesadelo?
JOTA.Info 2021-11-18
Imagine um mundo ficcional em que a Inteligência Artificial (IA) [1] alcançou um nível de sofisticação tal que lhe permite manipular opiniões públicas, interferir em eleições democráticas, divulgar informações falsas e distorcidas e promover as suas próprias verdades. Agora, imagine que são seres humanos que estão fazendo essas mesmas coisas uns com os outros.
A expressão algocracia (algocracy) foi empregada pela primeira vez pelo sociólogo A. Aneesh [2] para descrever o fenômeno do uso inevitável e aparentemente onipresente de algoritmos codificados por computador para compreender e gerir o mundo em que vivemos. Para John Danaher [3], as algocracias são como tipos de sistema de governança, nos quais algoritmos codificados por computador estruturam, incentivam ou manipulam diferentes tipos de comportamento humano.
Em português, todavia, esses termos não caem bem. Para nós, “algo” não soa como abreviação de algoritmo. Daí sugerirmos a expressão algoritmocracia para nos referirmos ao exercício contemporâneo da democracia pelo uso de sistemas de big data e por algoritmos de IA.
Qual é o impacto que a algoritmocracia pode ter em nossa liberdade? E em nossas instituições democráticas? Ela augura uma utopia, de informações otimizadas e escolhas conscientes ou uma distopia de manipulação e uso indevido de dados?
Agregue-se a isso o temor de que o emprego de uma metodologia sofisticada, baseada em algoritmos matemáticos e de difícil compreensão para não especialistas, pode falsificar os termos dos debates públicos. Há incerteza com relação à possibilidade de pura e simples de manipulação de dados.
Entendemos que a IA é uma tecnologia como outras e que depende de quem as utiliza e para o que, não sendo inerentemente boa ou ruim. Não é realista o temor de vieses na decisão por obra do aprendizado de máquina: eles se dão por obra das intervenções humanas.
A IA pode ser usada a serviço de sociedades liberais ou autoritárias, fortalecendo a responsabilidade do governo ou suas capacidades repressivas. Ela propiciou acessos e trocas de informação de um modo sem precedentes na história do mundo, mas também ampliou a disseminação de desinformação, contribuindo para o aumento da polarização ideológica das sociedades democráticas e, talvez, para o fortalecimento de opções populistas.
As instituições democráticas funcionam bem num ambiente de cidadãos bem-informados e comprometidos com o bem coletivo, o que o favorece – embora não determine – a eleição de políticos com idêntico comprometimento.
Na seara eleitoral, a IA criou oportunidades para uma influência direcionada, individualizada, automatizada e muitas vezes despercebida, como ficou demonstrado no caso Cambridge Analytica. Os escândalos em torno desse episódio e as graves denúncias contra a mídia social Facebook mostram que a IA pode ser usada em democracias para manipular deliberadamente os eleitores e distorcer o discurso político [4], difundindo notícias falsas.
É certo que mentiras podem ser compartilhadas por pessoas físicas, umas para as outras. Todavia, para que alcancem muitos destinatários, o que se faz é utilizar técnicas de IA por meio de algoritmos robôs – bots. Esses bots são robôs simples capazes de interagir, através de contas em redes sociais, como se fossem usuários autênticos, trocando informações, seguindo e conquistando novos seguidores [5].
Por exemplo, nas semanas que antecederam o anúncio do ex-presidente Donald Trump sobre a retirada do Acordo de Paris, contas suspeitas de serem robôs – bots – responderam por cerca de um quarto de todos os tuítes sobre as mudanças climáticas [6]. Pesquisadores mediram a influência dos bots, analisando 6,8 milhões de tuítes enviados por 1,6 milhão de usuários entre maio e junho de 2017. A partir desse conjunto de dados, a equipe observou uma amostra aleatória de 184.767 usuários e verificou que quase 9,5% deles eram provavelmente bots [7].
A experiência dos últimos anos ajuda a identificar algumas áreas-chave onde os algoritmos podem ameaçar minar e desestabilizar o sistema democrático, destacamos: 1) desinformação coordenada em larga escala; 2) microdirecionamento de eleitores; 3) polarização do diálogo político; 4) manipulação direcionada de conteúdo; 5) potencialização da discriminação humana; e 6) vigilância estatal em massa.
Entretanto, com os padrões e o desenvolvimento corretos, a IA pode ser usada para apoiar a democracia e a justiça. Aqui estão algumas áreas onde isso pode ocorrer: 1) checagem de fatos; 2) criação de um índice de confiabilidade das publicações virtuais; 3) detecção de técnicas de deep fake; 4) coleta eficiente de informações relevantes; 5) divulgação de dados verdadeiros e de interesse público; 6) transparência nos dados governamentais; 7) aperfeiçoamento dos mecanismos de consulta popular; 8) aperfeiçoamento da tecnologia do voto; e 9) reunião de informações e comparação de propostas dos candidatos nos pleitos eleitorais.
Ou seja, as pessoas que estão em posição de poder, seja ele estatal ou privado, e que tenham acesso aos recursos da IA, é que serão decisivas para saber se ela fará parte do aperfeiçoamento democrático ou se contribuirá para a deterioração das instituições e do poder popular.
[1] A inteligência artificial permite com que computadores possam se comportar de forma inteligente, ou seja, fazer a coisa certa ao invés da coisa errada. Mas o que é o certo? É desempenhar a tarefa para a qual foi programada. Ela inclui tarefas como aprendizagem, raciocínio, planejamento, percepção, compreensão de linguagem e robótica. A IA é melhor vista como um conjunto de tecnologias e técnicas usadas para complementar as habilidades humanas tradicionais, como inteligência, capacidade analítica e de resolução de problemas. Essas tarefas são desenvolvidas por algoritmos. Estes são uma sequência de instruções, regras e cálculos executados por um computador em uma ordem específica para gerar um resultado, geralmente uma resposta a um problema específico. Eles podem ser usados em combinação com outros algoritmos para resolver problemas complexos. Ver: LAGE, Fernanda de Carvalho. Manual da inteligência artificial no Direito brasileiro. Salvador: Editora Juspodivm, 2021.
[2] Aneesh Aneesh, Technologically Coded Authority: The Post-Industrial Decline in Bureaucratic Hierarchies, Stanford University. Disponível em: <https://web.stanford.edu/class/sts175/NewFiles/Algocratic%20Governance.pdf>. Acesso em: 13 nov. 2021.
[3] Danaher, J. The Threat of Algocracy: Reality, Resistance and Accommodation. Philos. Technol., 29, 2016, p. 245–268. Disponível em: <https://doi.org/10.1007/s13347-015-0211-1>. Acesso em: 13 nov. 2021.
[4] A empresa de análise de dados Cambridge Analytica foi capaz de empregar aprendizado de máquina para fazer microssegmentação comportamental dos eleitores, analisando suas personalidades com base em dados online e personalizando anúncios de campanha para atender aos seus interesses. O Brasil, pelo Departamento de Proteção e Defesa do Consumidor, multou o Facebook em 6,6 milhões de reais pelo vazamento de dados de ao menos 443.000 usuários brasileiros da plataforma. O caso começou a ser investigado depois de ser noticiado que brasileiros também tiveram seus dados compartilhados sem permissão pela consultoria de marketing político Cambridge Analytica. El País, Brasil multa Facebook em 6,6 milhões de reais pelo vazamento de dados no caso Cambridge Analytica, 30 dez. 2019. Disponível em: <https://brasil.elpais.com/tecnologia/2019-12-30/brasil-multa-facebook-em-66-milhoes-de-reais-pelo-vazamento-de-dados-no-caso-cambridge-analytica.html>. Acesso em: 12 nov. 2021.
[5] MESSIAS, Johnnatan; BENEVENUTO, Fabrício; OLIVEIRA, Ricardo. Bots Sociais: Como robôs podem se tornar pessoas influentes no Twitter?, REIC, 16, 20218. Disponível em: <https://seer.ufrgs.br/reic/article/view/46796>. Acesso em: 20.10.2021.
[6] Twitter Bots Are a Major Source of Climate Disinformation, Scientific American, 22 jan. 2022. Disponível em: <https://www.scientificamerican.com/article/twitter-bots-are-a-major-source-of-climate-disinformation/>. Acesso em: 15.10. 2021.
[7] Twitter Bots Are a Major Source of Climate Disinformation, Scientific American, 22 jan. 2022. Disponível em: <https://www.scientificamerican.com/article/twitter-bots-are-a-major-source-of-climate-disinformation/>. Acesso em: 15.10. 2021.