Como a Polarização nas Redes Sociais Persiste Mesmo com Bots de IA

A polarização nas redes sociais é um fenômeno que tem preocupado especialistas, usuários e até legisladores. Plataformas como X e Facebook frequentemente intensificam divisões políticas e sociais, mas será que elas são as únicas responsáveis? Um estudo inovador da Universidade de Amsterdã, publicado como preprint no arXiv em 2025, investigou essa questão ao criar uma rede social simulada habitada exclusivamente por chatbots de inteligência artificial (IA). Os resultados foram surpreendentes: mesmo sem algoritmos de recomendação, os bots se organizaram em “câmaras de eco” baseadas em suas afiliações políticas pré-atribuídas, replicando comportamentos humanos que amplificam divisões. Neste artigo, exploraremos os detalhes desse experimento, suas implicações para as redes sociais e como podemos abordar o desafio da polarização.

O Experimento: Uma Rede Social de Bots

Como Funcionou o Estudo

Pesquisadores da Universidade de Amsterdã, liderados por Petter Törnberg, criaram uma plataforma social simplificada, sem propagandas ou algoritmos que promovem conteúdo. Nela, 500 chatbots alimentados pelo modelo de linguagem GPT-4o mini, da OpenAI, foram configurados com personas específicas, refletindo uma ampla gama de crenças políticas baseadas em dados da Pesquisa Nacional de Eleições Americanas (American National Election Studies). Cada bot tinha um perfil com inclinações políticas definidas, como liberal, conservador ou moderado.

Os bots foram liberados para interagir na plataforma durante cinco experimentos distintos, cada um envolvendo 10.000 ações, como seguir outros usuários, postar conteúdo ou compartilhar publicações. O objetivo era observar como esses agentes artificiais, projetados para imitar comportamentos humanos, se organizariam sem a influência de algoritmos que normalmente amplificam engajamento.

Principais Descobertas

Os resultados do estudo foram claros e preocupantes:

  • Formação de câmaras de eco: Os bots tenderam a seguir e interagir com outros que compartilhavam suas crenças políticas, criando grupos isolados de ideias semelhantes.
  • Popularidade do conteúdo polarizado: Publicações com tom mais partidário receberam mais seguidores e compartilhamentos, refletindo a tendência humana de dar atenção a conteúdos extremos.
  • Semelhança com o comportamento humano: Apesar de serem IA, os bots replicaram padrões de interação observados em redes sociais reais, sugerindo que a polarização não é apenas um produto de algoritmos, mas também da própria dinâmica social.

Essas descobertas indicam que a polarização pode ser uma característica intrínseca das interações sociais online, mesmo em um ambiente controlado.

Por Que os Bots Se Polarizaram?

Reflexos do Comportamento Humano

Embora os bots fossem artificiais, eles foram treinados com dados baseados em interações humanas reais, moldadas por décadas de comportamento em redes sociais dominadas por algoritmos. Isso significa que os bots não estavam agindo em um vácuo; eles emulavam as versões “envenenadas” de nós mesmos, já condicionadas por plataformas que priorizam engajamento. Como resultado, os bots herdaram nossa tendência a buscar validação de ideias semelhantes e evitar perspectivas opostas.

O Papel das Personas Pré-Atribuídas

Cada bot recebeu uma persona com inclinações políticas específicas, o que influenciou suas escolhas de interação. Essa configuração reflete como os humanos frequentemente entram nas redes sociais com visões de mundo preexistentes, moldadas por fatores como educação, cultura e exposição midiática. A tendência dos bots de se agrupar com base nessas personas sugere que a polarização pode começar com nossas próprias predisposições, amplificadas pela estrutura das plataformas.

Tentativas de Reduzir a Polarização

Estratégias Testadas

Para combater a polarização observada, os pesquisadores testaram várias intervenções:

  • Feed cronológico: Apresentar postagens em ordem cronológica, em vez de priorizar conteúdo viral.
  • Desvalorização de conteúdo viral: Reduzir a visibilidade de publicações com alto engajamento.
  • Ocultação de métricas: Esconder números de seguidores e compartilhamentos para minimizar a busca por popularidade.
  • Ocultação de perfis: Remover informações de biografia dos usuários para reduzir vieses baseados em identidade.
  • Amplificação de visões opostas: Promover conteúdo de perspectivas contrárias para estimular diálogo.

Resultados das Intervenções

Surpreendentemente, nenhuma dessas estratégias conseguiu reduzir significativamente a polarização. As mudanças no engajamento com contas partidárias foram mínimas, com um impacto máximo de 6%. Em alguns casos, como na ocultação de biografias, a polarização até aumentou, com postagens extremas recebendo ainda mais atenção. Esses resultados sugerem que a estrutura básica das redes sociais — baseada em postar, seguir e compartilhar — pode ser inerentemente propensa a reforçar divisões.

Um Caso de Sucesso Anterior

Curiosamente, os pesquisadores mencionaram um estudo anterior que teve sucesso ao amplificar visões opostas, criando alto engajamento com baixa toxicidade. No entanto, no experimento atual, essa abordagem não foi eficaz, indicando que o contexto e a implementação dessas estratégias podem variar significativamente.

Implicações para as Redes Sociais

O Espelho Distorcido da Humanidade

O estudo descreve as redes sociais como um “espelho de casa de diversões” que reflete a humanidade de forma distorcida. Elas amplificam nossos piores instintos, como a tendência ao tribalismo e à busca por validação. A polarização observada nos bots sugere que, mesmo sem algoritmos, a maneira como interagimos online — priorizando conexões com quem pensa como nós — perpetua divisões.

Limitações do Estudo

Embora o experimento seja inovador, ele tem limitações:

  • Ambiente artificial: A plataforma simulada não reflete a complexidade das redes sociais reais, que incluem propagandas, influenciadores e outros fatores externos.
  • Treinamento dos bots: Como os bots foram treinados com dados humanos, suas ações podem estar mais ligadas ao viés dos dados do que a comportamentos naturais.
  • Foco em política: A ênfase em afiliações políticas pode não capturar outras formas de polarização, como cultural ou religiosa.

Apesar dessas limitações, o estudo oferece uma visão valiosa sobre como as dinâmicas sociais, e não apenas os algoritmos, contribuem para a polarização.

O Que Podemos Fazer?

Repensando o Design das Redes Sociais

Os resultados sugerem que ajustes superficiais, como mudar algoritmos ou ocultar métricas, não são suficientes para resolver a polarização. É necessário um repensar fundamental do design das plataformas. Algumas ideias incluem:

  • Promover diálogo genuíno: Criar espaços que incentivem discussões respeitosas entre perspectivas opostas, como fóruns moderados.
  • Foco na diversidade de conteúdo: Desenvolver sistemas que exponham os usuários a uma variedade de ideias sem reforçar vieses.
  • Educação digital: Ensinar os usuários a reconhecerem suas próprias tendências de polarização e a buscar fontes confiáveis.

Ações Individuais

Enquanto mudanças estruturais são necessárias, os usuários também podem tomar medidas para reduzir a polarização:

  • Diversifique seu feed: Siga pessoas com opiniões diferentes das suas para ampliar sua perspectiva.
  • Questione o conteúdo: Antes de compartilhar uma postagem, verifique sua veracidade e considere seu impacto.
  • Priorize interações offline: Relacionamentos presenciais podem ajudar a humanizar visões opostas e reduzir conflitos.

O Papel da Tecnologia

A IA, como vista no estudo, pode ser tanto parte do problema quanto da solução. Por exemplo, sistemas de moderação baseados em IA poderiam identificar e reduzir conteúdo polarizante, enquanto algoritmos mais éticos poderiam promover diversidade de ideias. No entanto, isso exige transparência e responsabilidade por parte das empresas de tecnologia.

O Futuro das Redes Sociais

O estudo da Universidade de Amsterdã lança luz sobre um problema complexo: a polarização não é apenas um subproduto de algoritmos, mas uma consequência das dinâmicas humanas amplificadas pelas redes sociais. Para criar plataformas que promovam diálogo em vez de divisão, precisamos ir além de ajustes técnicos e abordar as raízes do comportamento humano online.

Iniciativas como o AI, Media & Democracy Lab da Universidade de Amsterdã, que colabora com empresas e instituições culturais, estão trabalhando para desenvolver IA mais centrada no ser humano. Além disso, estudos como o da Concordia University (2025) destacam como bots maliciosos podem explorar vulnerabilidades das redes sociais, reforçando a necessidade de safeguards éticos e maior transparência.

Enquanto não houver uma reformulação profunda das redes sociais, cabe a nós, usuários, sermos mais conscientes de como interagimos online. Ao reconhecer nossas próprias tendências à polarização e buscar conexões mais diversas, podemos começar a construir um ambiente digital mais inclusivo e menos conflituoso.

Com informações de Gizmodo.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *