A Esfera Pública Digital em Xeque: Ética, Polarização e Manipulação de Narrativas na Era da Inteligência Artificial

Polarização Política

Palavras-chave: Esfera Pública Digital, Inteligência Artificial, Ética da IA, Polarização Digital, Manipulação de Narrativas, Desinformação, Algoritmos, Democracia Digital.

1. Introdução

A esfera pública digital, inicialmente concebida como uma extensão virtual da esfera pública tradicional, foi vislumbrada como um espaço promissor para a amplificação da expressão política e o desenvolvimento da inteligência coletiva, impulsionada pelas redes digitais de informação e comunicação . Essa arena virtual detinha o potencial teórico para fomentar o raciocínio crítico, o debate aberto e uma participação democrática mais ampla, acessível a todos, independentemente de sua posição social .

No entanto, a integração ubíqua da Inteligência Artificial (IA) tem remodelado fundamentalmente este cenário. O que outrora parecia uma “ágora” aberta evoluiu para uma “Esfera Pública Algorítmica” (EPA), onde os sistemas de IA não são meras ferramentas passivas, mas agentes ativos que selecionam, filtram e moldam os ambientes de informação e o comportamento dos usuários . Essa transformação implica uma alteração profunda na própria arquitetura do discurso público. A dependência crescente da IA na comunicação pública introduz preocupações éticas significativas, incluindo a incorporação de vieses algorítmicos, questões críticas de privacidade e segurança de dados, e desafios fundamentais de transparência e responsabilização nos processos de tomada de decisão da IA .

Os sistemas de recomendação impulsionados por IA e as estratégias de curadoria de conteúdo estão comprovadamente contribuindo para a polarização digital. Ao otimizar o engajamento do usuário, esses algoritmos inadvertidamente promovem a formação de “câmaras de eco” e “bolhas de filtro”, que reforçam as crenças existentes e intensificam a fragmentação política e ideológica . Além disso, a rápida proliferação de IA generativa, especialmente mídias sintéticas avançadas como os “deepfakes”, representa uma ameaça sem precedentes à integridade da informação. Essa tecnologia permite a manipulação sofisticada de narrativas e a disseminação em larga escala de desinformação, desafiando a autenticidade do conteúdo online e minando a confiança pública .

A transformação da esfera pública não é uma evolução passiva, mas uma remodelação ativa impulsionada pelo design da IA. O mecanismo subjacente a essa mudança é a capacidade inerente da IA de selecionar e personalizar informações, o que impacta diretamente a visibilidade e o engajamento, deslocando o fórum público aberto para um sistema mais opaco, semelhante a uma “caixa preta” . Isso sugere uma alteração fundamental nas dinâmicas de poder, onde as plataformas impulsionadas por IA se tornam poderosos “atores políticos” e “guardiões” . A legitimidade da esfera pública de Habermas dependia de condições como acesso aberto, igualdade discursiva, liberdade de manipulação e troca racional de argumentos . No entanto, na era das mídias sociais e da filtragem algorítmica, cada um desses pilares está em processo de erosão silenciosa . Se a “visibilidade é capital” e é distribuída de forma desigual pelos algoritmos , então a própria premissa de um discurso público inclusivo e equitativo é minada, levando a um potencial declínio na legitimidade democrática.

O presente artigo tem como objetivo fornecer uma análise crítica e abrangente dos desafios multifacetados impostos pela Inteligência Artificial à integridade, funcionalidade e potencial democrático da esfera pública digital. Especificamente, o estudo se concentra nas implicações éticas da IA, seu papel na amplificação da polarização digital e os mecanismos sofisticados que ela possibilita para a manipulação de narrativas. A pesquisa busca sintetizar o entendimento acadêmico atual e as evidências empíricas de diversas fontes acadêmicas e de mídia de alto nível para construir uma visão geral robusta desses fenômenos complexos. Em última análise, o objetivo é propor caminhos acionáveis para mitigar esses riscos e fomentar uma esfera pública digital mais resiliente, ética e democraticamente sólida. A relevância deste estudo é primordial para informar formuladores de políticas, desenvolvedores de tecnologia, pesquisadores acadêmicos e o público em geral sobre a necessidade urgente de abordar essas questões para salvaguardar a deliberação democrática, promover a opinião pública informada e preservar a coesão social na era da IA em rápida evolução.

Este artigo está estruturado da seguinte forma: A Seção 2 apresenta uma revisão abrangente da literatura, conceituando a esfera pública digital e detalhando os desafios éticos, de polarização e de manipulação de narrativas impostos pela IA. A Seção 3 descreve a abordagem metodológica empregada nesta pesquisa. A Seção 4 apresenta uma análise aprofundada e discussão dos achados, incluindo o impacto da IA na estrutura da esfera pública, seu papel como catalisador da polarização e as novas fronteiras da manipulação de narrativas, juntamente com suas implicações mais amplas para a democracia. Finalmente, a Seção 5 oferece uma conclusão, resumindo os principais achados, fornecendo recomendações e sugerindo direções para pesquisas futuras.

2. Revisão da Literatura

2.1. Conceituação da Esfera Pública Digital

A esfera pública digital é amplamente compreendida como uma extensão virtual da esfera pública tradicional, facilitando a expressão política, a deliberação e a comunicação por meio de redes digitais . Ela abrange uma vasta gama de espaços online, incluindo fóruns de mensagens, canais de informação, grupos de discussão e canais de notícias, todos viabilizados pelas mídias sociais e pela World Wide Web .

A obra seminal de Jürgen Habermas, “A Transformação Estrutural da Esfera Pública” (1989), fornece a estrutura teórica fundamental, vislumbrando um espaço ideal para o debate racional e irrestrito, livre de interferências estatais ou econômicas . Contudo, na era digital, esse conceito passou por uma reavaliação significativa, levando alguns estudiosos a propor a “Esfera Pública Algorítmica” (EPA), onde os sistemas de IA são reconhecidos como elementos intrínsecos e influentes que moldam o discurso público .

A transição de uma esfera pública geograficamente ou situacionalmente delimitada para uma esfera ubíqua na era digital significa que qualquer ação ou conteúdo online pode potencialmente alcançar visibilidade pública para uma audiência ilimitada, mesmo que tenha se originado em um ambiente privado . Isso resultou tanto em um aumento das oportunidades de participação quanto, paradoxalmente, em uma fragmentação do discurso público, levando ao surgimento de “públicos de nicho” especializados e “múltiplos espaços públicos” que podem exacerbar a polarização em vez de fomentar o consenso .

A promessa inicial e utópica da esfera pública digital como um espaço aberto e democratizante para o discurso racional contrasta fortemente com sua realidade atual, onde mecanismos impulsionados por IA levam à fragmentação, homogeneização do discurso e aumento do controle por poderosos guardiões . Essa tensão fundamental entre a visão idealizada da democracia digital e o impacto real, muitas vezes problemático, da integração da IA, é um ponto central de preocupação. A causa subjacente a essa divergência reside frequentemente nas escolhas de design e nos modelos de negócios das plataformas, que priorizam métricas de engajamento em detrimento da qualidade deliberativa.

2.2. Ética da Inteligência Artificial

A ética da IA é um campo em rápida expansão que abrange uma ampla gama de tópicos críticos, incluindo vieses algorítmicos, princípios de justiça, as implicações da tomada de decisão automatizada, mecanismos de responsabilização, privacidade de dados e a necessidade de regulamentação robusta .

Um desafio ético primordial é o viés algorítmico, que ocorre quando os sistemas de IA perpetuam inadvertidamente preconceitos sociais incorporados em seus dados de treinamento. Isso pode levar a resultados discriminatórios em áreas sensíveis como contratação, justiça criminal e acesso a serviços, reforçando assim as desigualdades existentes . O viés algorítmico não é meramente uma falha técnica; ele representa uma reprodução e amplificação sistêmica das desigualdades sociais existentes . Os preconceitos históricos incorporados nos dados de treinamento são diretamente traduzidos em resultados discriminatórios pelos sistemas de IA, exacerbando e reforçando ativamente as divisões sociais preexistentes na esfera pública. Isso transcende o reconhecimento do viés para uma compreensão de seu papel ativo na perpetuação da injustiça.

A privacidade e a segurança dos dados são preocupações primordiais, uma vez que muitas ferramentas de IA envolvem inerentemente a coleta e o armazenamento de vastas quantidades de dados do usuário. Isso exige o estabelecimento de diretrizes claras, estruturas robustas de proteção de dados e práticas transparentes para evitar acesso não autorizado, uso indevido ou violações .

A transparência e a explicabilidade são cruciais para a implantação ética da IA. Isso exige abertura sobre como a IA é utilizada, divulgação clara de suas limitações e potenciais vieses, e a implementação de mecanismos para auditorias regulares para garantir uma operação responsável . O princípio da supervisão humana e da responsabilidade final é consistentemente enfatizado, garantindo que os sistemas de IA sirvam para aumentar as capacidades humanas, em vez de substituir o julgamento humano, especialmente em decisões que têm impactos significativos sobre indivíduos ou a sociedade .

A comunidade de IA responsável, conforme destacado por recursos como maiquelgomes.com.br por meio de sua associação com a MKAI, promove ativamente o diálogo aberto e projetos colaborativos sobre temas de IA, incluindo ética, inclusão, privacidade e sustentabilidade . Isso se alinha ao consenso acadêmico mais amplo sobre o imperativo de salvaguardas éticas no desenvolvimento e implantação da IA .

2.3. Polarização Digital e o Papel da IA

A ascensão das plataformas de mídia social, impulsionadas por algoritmos sofisticados de IA, transformou fundamentalmente o discurso público, levando a um aumento documentado na polarização social e à formação generalizada de “câmaras de eco” ideológicas .

Os algoritmos de recomendação impulsionados por IA, projetados principalmente para maximizar o engajamento e a atenção do usuário, criam inadvertidamente “bolhas de filtro” . Dentro desses ambientes digitais isolados, os indivíduos são expostos principalmente a conteúdo que se alinha às suas crenças preexistentes, com exposição limitada ou nenhuma a informações contra-atitudinais. Esse mecanismo reforça as opiniões existentes, aprofunda as divisões ideológicas e políticas e reduz a probabilidade de encontrar perspectivas diversas .

Estudos empíricos, utilizando estruturas experimentais, validaram previsões teóricas sobre a polarização online, demonstrando que ambientes polarizados aumentam significativamente a emocionalidade percebida e a saliência da identidade de grupo entre os usuários, ao mesmo tempo em que reduzem a incerteza expressa e promovem padrões de discurso confrontacionais . Além disso, pesquisas recentes revelam que Grandes Modelos de Linguagem (LLMs) treinados em diferentes regiões geográficas podem exibir vieses geopolíticos distintos, produzindo respostas divergentes para questões controversas. Isso codifica efetivamente perspectivas e vieses regionais em sistemas de IA, contribuindo e refletindo padrões mais amplos de polarização global .

A IA tem a capacidade de amplificar vieses políticos e impulsionar uma maior divisão, particularmente quando a confiabilidade do conteúdo de notícias online é ambígua ou incerta. Isso pode criar um “ciclo de feedback positivo” onde a polarização inicial é continuamente reforçada e exacerbada pelas escolhas algorítmicas .

2.4. Manipulação de Narrativas e Desinformação por IA

A IA está revolucionando a arte de contar histórias e a produção de conteúdo, oferecendo aos criadores capacidades sem precedentes para explorar narrativas complexas e oferecer experiências profundamente personalizadas e imersivas .

No entanto, essa poderosa capacidade generativa coexiste com um risco significativo e crescente de promover desinformação e manipular percepções públicas, uma preocupação amplificada pelo surgimento de tecnologias avançadas de mídia sintética como os “deepfakes” . Deepfakes, definidos como manipulações digitais hiper-realistas (incluindo vídeos, imagens e áudios) que são virtualmente indistinguíveis do conteúdo autêntico, são cada vez mais explorados para atividades maliciosas, como crimes cibernéticos, assédio online, difamação e campanhas de desinformação em larga escala . Exemplos notáveis incluem conteúdo político manipulado e endossos fabricados projetados para influenciar a opinião pública .

O principal desafio com o conteúdo gerado por IA é que ele prioriza a “plausibilidade em detrimento da verdade” . Isso significa que uma parte significativa das informações geradas por IA, embora pareça perfeitamente crível, pode ser factualmente incorreta ou intencionalmente enganosa. Esse fenômeno contribui para uma “insegurança informacional” generalizada e pode fomentar o “relativismo epistêmico”, onde a capacidade do público de discernir fatos objetivos é comprometida, levando a um possível refúgio em intermediários de informação e sistemas de IA alinhados faccionalmente .

As “guerras de narrativas” estão se intensificando devido às capacidades da IA, levando a uma concentração do controle da informação em menos “pontos de estrangulamento” e permitindo que atores maliciosos gerem “sentimento constituinte falso” em uma escala sem precedentes, como demonstrado por experimentos com cartas de defesa escritas por IA .

Embora as ferramentas de IA também ofereçam potencial para detectar e mitigar deepfakes e desinformação, isso cria um “equilíbrio delicado” , à medida que a corrida armamentista entre a geração e a detecção continua a evoluir. A natureza dual da IA na geração de narrativas – sua capacidade para expressão criativa sem precedentes e para desinformação sofisticada em larga escala – cria um desafio profundo que se estende além de instâncias individuais de notícias falsas. Isso leva a uma “insegurança informacional” sistêmica e a um “relativismo epistêmico” , onde a própria noção de uma verdade compartilhada e verificável é minada. Não se trata apenas de peças individuais de conteúdo falso, mas de um desafio fundamental à capacidade do público de convergir em diagnósticos comuns, agendas ou mesmo uma realidade compartilhada, impactando a base do discurso democrático informado.

3. Metodologia

O presente artigo adota uma abordagem de pesquisa qualitativa, descritiva e analítica, fundamentada principalmente em uma revisão sistemática abrangente da literatura. O objetivo metodológico é sintetizar o conhecimento acadêmico existente e as percepções de relatórios de mídia de alto nível para construir uma compreensão robusta e matizada dos desafios que a esfera pública digital enfrenta na era da Inteligência Artificial.

O processo de revisão identifica, avalia e sintetiza sistematicamente estudos acadêmicos relevantes e relatórios autorizados extraídos de uma gama diversa de campos interdisciplinares, incluindo estudos de comunicação, ciência da computação, ética, ciência política e sociologia. Essa lente interdisciplinar é crucial para capturar a natureza multifacetada do problema de pesquisa.

Critérios de Seleção e Análise das Fontes

As fontes foram rigorosamente selecionadas de bases de dados acadêmicas e editoras de alta reputação, como IEEE Xplore, ACM Digital Library, Scopus, ScienceDirect (Elsevier), Springer, Google Scholar e arXiv. Além disso, veículos de comunicação científica de alta visibilidade e outlets de mídia influentes (por exemplo, Nature, Wired, The Verge, MIT Tech Review) foram incluídos quando forneciam análises especializadas, estudos de caso ilustrativos ou comentários significativos relevantes para o impacto da IA no mundo real. Textos fundamentais em metodologia de pesquisa, como os de Sampieri, Collado e Lucio , guiaram a estrutura geral de análise qualitativa e conceitual. Uma citação específica do site maiquelgomes.com.br, identificada como relevante para a ética da IA e a esfera pública digital , também foi incorporada conforme os requisitos.

Fontes identificadas como não revisadas por pares, carentes de rigor acadêmico ou que exibiam vieses claros não relevantes para o escopo analítico foram geralmente excluídas para manter a alta qualidade e confiabilidade da revisão. Exceções foram feitas para relatórios de mídia de alto impacto que forneciam insights únicos ou exemplos do mundo real ainda não extensivamente cobertos na literatura acadêmica. Uma análise de conteúdo rigorosa e uma abordagem de síntese temática foram aplicadas às fontes selecionadas. Isso envolveu a extração sistemática de conceitos-chave, argumentos teóricos, achados empíricos e desafios identificados pertinentes ao impacto da IA na ética, polarização e manipulação de narrativas. Atenção particular foi dada à distinção de relações causais, identificação de tendências emergentes, destaque de contradições na literatura existente e extração de exemplos ou estudos de caso específicos.

Discussão sobre a Integração de Dados Qualitativos e Quantitativos da Literatura

Embora a abordagem metodológica primária enfatize a síntese qualitativa de estruturas conceituais e teóricas, a revisão integra ativamente achados quantitativos apresentados na literatura citada. Isso inclui dados estatísticos e resultados empíricos de estudos sobre a prevalência e o impacto da polarização e desinformação impulsionadas por IA, que são cruciais para substanciar os argumentos qualitativos .

O papel das ferramentas de IA na facilitação tanto da pesquisa qualitativa (por exemplo, transcrição, codificação, mapeamento temático, análise de conteúdo) quanto da pesquisa quantitativa (por exemplo, análise de dados, modelagem estatística, análise de surveys) é reconhecido. Essas ferramentas podem aumentar significativamente a eficiência e a profundidade das revisões de literatura e do processamento de dados . No entanto, é imperativo manter a transparência sobre o uso de tais ferramentas de IA e garantir uma supervisão humana robusta para manter a integridade acadêmica e mitigar potenciais vieses introduzidos pelas próprias ferramentas .

A metodologia escolhida, uma revisão sistemática da literatura, implica inerentemente uma limitação de escopo: o artigo se concentrará na síntese e interpretação do conhecimento existente, em vez de gerar novos dados empíricos por meio de pesquisa primária. Essa distinção é crucial para definir expectativas apropriadas para a seção de “Análise de Dados”, que analisará dados apresentados na literatura, e não dados brutos recém-coletados. A discussão sobre ferramentas de IA que auxiliam nos processos de pesquisa (por exemplo, transcrição, codificação, análise de dados) introduz uma consideração meta-ética. A própria tecnologia que está sendo estudada por suas implicações éticas na esfera pública também carrega responsabilidades éticas dentro do processo de pesquisa acadêmica. Isso exige adesão estrita à transparência e à supervisão humana no uso da IA para o trabalho acadêmico, conectando o tema central da ética da IA diretamente à metodologia de pesquisa.

Essa integração de diversos tipos de dados permite uma compreensão mais abrangente e robusta do problema de pesquisa. Ao combinar o “porquê” (percepções qualitativas sobre comportamentos, atitudes e experiências) com o “o quê” e “quanto” (tendências e padrões quantitativos), a metodologia visa fortalecer a validade, a riqueza e a generalização da análise .

4. Análise de Dados e Discussão

4.1. Impacto da IA na Estrutura da Esfera Pública Digital

As plataformas digitais impulsionadas por IA, incluindo grandes redes de mídia social como Facebook, TikTok, Twitter (agora X) e YouTube, são cada vez mais centrais para o discurso público. Essas plataformas utilizam aplicativos de IA para moldar profundamente os ambientes de informação, gerar conteúdo autonomamente e mediar a comunicação com os usuários . Essa integração generalizada da IA leva a um fortalecimento significativo das estruturas intermediárias, concedendo aos operadores de plataforma e seus algoritmos um maior grau de controle sobre a arena pública. Esse controle pode se manifestar diretamente por meio de aplicativos de IA que suprimem vozes novas, desafiadoras ou “ofensivas”, limitando assim a diversidade de expressão .

Os sistemas algorítmicos baseados em IA são empregados para identificar e rotular conteúdo potencialmente prejudicial ou ilegal. Embora destinados a promover espaços mais seguros, isso pode levar a uma forma de censura algorítmica e a uma “atração de dados para a média”, que arrisca enfraquecer pontos de vista idiossincráticos e sinais culturais específicos na esfera pública . Essa dinâmica incentiva os provedores de conteúdo, incluindo jornalistas e organizações de mídia, a “reverter a engenharia e se ajustar aos sinais de relevância determinados algoritmicamente”, potencialmente criando um efeito de “jaula de ferro” que limita a diversidade de fontes e vozes e empurra o conteúdo não conforme para fora da vista .

A mudança de uma esfera pública mediada por humanos para uma mediada por IA cria um ciclo de auto-reforço onde a otimização da IA para o engajamento causa a homogeneização do conteúdo e o reforço do viés. Isso, por sua vez, reduz a diversidade de informações e fortalece o controle dos guardiões, levando a um discurso público menos representativo e mais controlado. Essa é uma questão sistêmica, e não apenas uma coleção de problemas isolados. O efeito de “jaula de ferro” e a priorização da “plausibilidade em detrimento da verdade” minam fundamentalmente o ideal habermasiano de discurso crítico-racional. Isso implica uma ameaça direta aos próprios fundamentos da tomada de decisões democráticas informadas, pois os cidadãos podem ser privados das informações diversas e precisas necessárias para a deliberação coletiva e para responsabilizar o poder .

A IA influencia o comportamento dos provedores de informação, criando incentivos econômicos (por exemplo, por meio de métricas de engajamento e receita de anúncios) para apresentar ou ignorar informações específicas. Esse mecanismo pode transformar vieses inerentes dentro da visibilidade e invisibilidade de grupos sociais impulsionadas por dados baseados em IA em um fator determinante para sua presença e influência na arena pública, exacerbando assim as desigualdades e a marginalização existentes .

As capacidades da IA generativa podem levar a um aumento significativo no volume de informações falsas ou enganosas, seja intencionalmente maliciosas ou acidentalmente imprecisas. Isso ocorre porque a IA generativa prioriza a “plausibilidade em detrimento da verdade”, o que significa que seus resultados, embora pareçam perfeitamente críveis, podem carecer de correção factual . Esse fenômeno contribui para uma “insegurança informacional” generalizada e pode fomentar o “relativismo epistêmico”, onde a capacidade do público de discernir fatos objetivos é comprometida, levando a um possível refúgio em intermediários de informação e sistemas de IA alinhados faccionalmente .

4.2. A IA como Catalisador da Polarização

Os algoritmos de recomendação impulsionados por IA são projetados para maximizar o engajamento do usuário, o que frequentemente leva à criação de “câmaras de eco” ou “bolhas de filtro” . Dentro desses ambientes digitais isolados, os indivíduos são expostos principalmente a conteúdo que se alinha às suas crenças preexistentes, com exposição limitada ou nenhuma a informações contra-atitudinais. Esse mecanismo reforça as opiniões existentes, aprofunda as divisões ideológicas e políticas e reduz a probabilidade de encontrar perspectivas diversas .

Estruturas experimentais validaram empiricamente as previsões teóricas sobre a polarização online, demonstrando que ambientes polarizados aumentam significativamente a emocionalidade percebida e a saliência da identidade de grupo entre os usuários, ao mesmo tempo em que reduzem a incerteza expressa e promovem padrões de discurso confrontacionais . Além disso, pesquisas destacam como os Grandes Modelos de Linguagem (LLMs) treinados em diferentes países exibem vieses geopolíticos distintos, produzindo respostas divergentes para questões controversas. Isso codifica efetivamente perspectivas e vieses regionais em sistemas de IA, contribuindo e refletindo padrões mais amplos de polarização global .

Um método inovador demonstra como o aprendizado por reforço pode ser utilizado para identificar e alavancar estrategicamente contas de usuários comprometidas (bots) em redes de mídia social, a fim de maximizar a polarização online com supervisão humana mínima . Isso evidencia a natureza sofisticada e automatizada do papel da IA na exacerbação da polarização, transcendendo a simples filtragem algorítmica para uma manipulação ativa e direcionada das dinâmicas de rede. A pesquisa enfatiza que, mesmo com informações limitadas (opiniões atuais, número de seguidores), esses agentes adversariais podem intensificar os desentendimentos nas redes sociais .

A Figura 1 ilustra a dinâmica da polarização digital amplificada pela IA.

Figura 1: Dinâmica da Polarização Digital Amplificada por IA

Snippet de código

graph TD
    A[Algoritmos de IA] --> B{Otimização para Engajamento};
    B --> C[Feeds Personalizados];
    C --> D;
    D --> E;
    E --> F[Aumento da Polarização Ideológica];
    F --> G;
    G --> A;
    F --> H;
    H --> D;
    A --> H;

Descrição da Figura 1: Este diagrama conceitual visualiza o complexo ciclo de feedback pelo qual os algoritmos de IA contribuem e amplificam a polarização digital. Ele ilustra os mecanismos interconectados, como feeds personalizados, formação de câmaras de eco e o reforço de crenças, tornando o processo dinâmico mais claro e acessível ao leitor. Este auxílio visual é valioso para sintetizar modelos teóricos complexos e observações empíricas em um formato facilmente digerível.

4.3. A Nova Fronteira da Manipulação de Narrativas

Os deepfakes, que abrangem vídeos, imagens e áudios sintéticos altamente realistas, são um exemplo primordial da capacidade da IA para manipulação sofisticada. Essas criações são cada vez mais utilizadas para fins maliciosos, incluindo crimes cibernéticos, assédio online, difamação e campanhas de desinformação em larga escala . Sua capacidade de ser virtualmente indistinguível do conteúdo autêntico representa uma séria ameaça à confiança pública e aos processos democráticos, tornando extremamente desafiador para os indivíduos discernir informações genuínas de manipuladas .

Estudos de caso do mundo real ilustram a natureza generalizada da manipulação de narrativas impulsionada por IA. Isso inclui instâncias de gravações de áudio geradas por IA que se fazem passar por candidatos políticos dias antes das eleições, criando confusão e erodindo a confiança do eleitor . Da mesma forma, endossos falsos que utilizam imagens e áudios manipulados por IA têm sido usados para influenciar campanhas políticas . Além da interferência eleitoral direta, a IA demonstrou a capacidade de gerar “sentimento constituinte falso” em escala, como demonstrado por experimentos com cartas de defesa escritas por IA enviadas a legisladores .

Embora a IA ofereça um imenso potencial para aprimorar a criatividade e permitir a narrativa profundamente personalizada , suas capacidades generativas também apresentam um risco significativo. Essa dualidade permite a criação de desinformação altamente persuasiva, explorando vulnerabilidades humanas e potencialmente levando ao que alguns descrevem como “guerra de informação” . A capacidade de simular e criar conteúdo original desafia as noções tradicionais de autoria e criatividade, levantando debates sobre originalidade e ética na criação de conteúdo .

A Tabela 1 categoriza e descreve sistematicamente as várias formas de manipulação de narrativas impulsionadas por IA, desde deepfakes sofisticados até a geração automatizada de conteúdo e operações de influência direcionadas. Ela fornece uma visão geral clara e estruturada do escopo e da natureza do problema, aprimorando a compreensão do leitor sobre as diversas ameaças representadas pela IA nesse domínio.

Tabela 1: Tipos de Manipulação de Narrativas Habilitadas por IA

Tipo de ManipulaçãoDescriçãoExemplos/Casos de UsoImpacto na Esfera Pública DigitalFontes Chave
Deepfakes VisuaisCriação de vídeos e imagens sintéticas hiper-realistas de indivíduos dizendo ou fazendo coisas que nunca ocorreram.Manipulação política (falsos discursos, endossos), assédio (imagens íntimas não consensuais), fraude.Erosão da confiança na autenticidade da informação, desinformação em larga escala, minar a reputação.
Deepfakes AuditivosGeração de áudios sintéticos que imitam a voz de indivíduos com alta precisão, usados para criar declarações falsas.Impersonificação em fraudes financeiras, desinformação política (gravações falsas de candidatos), coação.Dificuldade em distinguir a verdade, manipulação de percepções, disseminação rápida de boatos.
Geração de Conteúdo Falso em MassaProdução automatizada de grandes volumes de texto, artigos, comentários ou posts em redes sociais que disseminam desinformação ou propaganda.Campanhas de desinformação política, “inundar a zona” com conteúdo irrelevante para ocultar fatos, manipulação de sentimento público.Sobrecarga de informações, dificuldade de discernimento, polarização de opiniões.
Microtargeting de NarrativasPersonalização de mensagens e narrativas para segmentos específicos da população, baseada em dados comportamentais e demográficos coletados por IA.Campanhas eleitorais direcionadas, manipulação de grupos vulneráveis, reforço de vieses existentes.Fragmentação do discurso, criação de “bolhas de filtro”, intensificação da polarização.
Simulação de Sentimento PúblicoGeração de interações online (comentários, curtidas, compartilhamentos) por bots ou agentes de IA para criar a ilusão de apoio popular ou oposição a uma ideia.Influência em debates políticos, manipulação de tendências em redes sociais, distorção da percepção da opinião pública.Minar a legitimidade do debate público, desmobilização de vozes autênticas, aumento da desconfiança.
Manipulação de Experiências ImersivasUso de IA em ambientes de realidade virtual/aumentada ou jogos para criar narrativas interativas que influencenciam percepções ou comportamentos.Propaganda em jogos, experiências de mídia imersivas com mensagens subliminares ou direcionadas.Impacto psicológico profundo, influência sutil de crenças e atitudes, dificuldade de identificação da manipulação.

4.4. Implicações para a Democracia e a Sociedade

A tática estratégica de “inundar a zona”, agora massivamente escalável com conteúdo gerado por IA, pode sobrecarregar os ambientes de informação, ocultando efetivamente informações relevantes e dificultando a capacidade tanto do público quanto das elites de convergir em diagnósticos ou agendas comuns . Isso mina diretamente a base fundamental da tomada de decisões democráticas informadas e a qualidade da representação democrática .

A combinação da capacidade da IA para geração rápida de conteúdo (incluindo desinformação) e seus mecanismos de amplificação algorítmica cria um ciclo de feedback poderoso e perigoso. A IA gera conteúdo plausível, mas falso; os algoritmos priorizam o engajamento em detrimento da verdade; a desinformação se espalha rapidamente em câmaras de eco; isso reforça os vieses existentes e aprofunda a polarização; e, por fim, erode ainda mais a confiança em diversas fontes de informação, criando uma demanda por conteúdo mais enviesado e reforçador. Esse ciclo, descrito como uma “caixa de Pandora” , leva a uma degradação contínua do ambiente de informação e a uma crescente fragmentação social.

A proliferação generalizada de desinformação, deepfakes e narrativas manipuladas impulsionadas por IA erode a confiança pública não apenas na mídia tradicional e nos processos políticos, mas também em instituições críticas, como organizações de saúde pública . Essa erosão da confiança pode desestabilizar instituições e processos democráticos.

Para navegar efetivamente nesse ecossistema de informações cada vez mais complexo e manipulado, os cidadãos exigem habilidades significativamente aprimoradas de alfabetização midiática e pensamento crítico. A capacidade de discernir a veracidade e a intenção maliciosa, independentemente de o conteúdo ser gerado por humanos ou por IA, torna-se primordial para a participação informada na esfera pública digital . As instituições educacionais têm um papel crucial em incorporar a educação em IA nos currículos básicos para fomentar essas competências .

A sofisticação crescente da IA na manipulação de narrativas e a dificuldade documentada em distinguir o conteúdo gerado por IA do real implicam que medidas reativas tradicionais, como a verificação de fatos e a moderação de conteúdo, são insuficientes para salvaguardar o discurso público . Isso exige uma mudança fundamental para medidas proativas e preventivas, incluindo a incorporação de educação abrangente em IA e “alfabetização contextual” nos currículos . A implicação de longo prazo é a necessidade de cultivar uma cidadania mais resiliente e criticamente discernente, em vez de depender apenas de soluções tecnológicas.

As capacidades avançadas da IA para manipular o comportamento e as preferências humanas, juntamente com a crescente delegação da autonomia decisória dos humanos para os sistemas de IA, prejudicam diretamente valores democráticos fundamentais, como a autogovernança e a autonomia individual. Isso levanta preocupações sobre o potencial da IA para influenciar pensamentos, sentimentos e comportamentos de maneiras que minam a genuína agência humana .

5. Conclusão

Este artigo demonstrou que a Inteligência Artificial transformou fundamentalmente a esfera pública digital, introduzindo um complexo conjunto de desafios que impactam diretamente sua integridade e potencial democrático. Foi evidenciado que os sistemas de IA não são ferramentas neutras, mas modeladores ativos do discurso, levando a dilemas éticos significativos, incluindo vieses algorítmicos generalizados, preocupações críticas com a privacidade e questões de transparência e responsabilização. Além disso, a IA desempenha um papel central como catalisador da polarização digital, principalmente por meio de seus mecanismos algorítmicos que fomentam câmaras de eco e bolhas de filtro, reforçando assim as crenças existentes e aprofundando as divisões sociais. Finalmente, o advento da IA generativa abriu novas fronteiras para a manipulação de narrativas, com deepfakes e campanhas automatizadas de desinformação representando ameaças sem precedentes à autenticidade da informação e à confiança pública.

O impacto cumulativo desses fenômenos impulsionados pela IA é profundo: eles ameaçam a própria integridade do discurso público, erodem a confiança em fontes de informação essenciais e em instituições democráticas, e representam riscos substanciais para a formação da opinião pública informada e para a coesão social. A esfera pública digital, outrora concebida como uma força democratizante, agora enfrenta uma conjuntura crítica onde sua capacidade de fomentar a deliberação racional e a compreensão coletiva é severamente desafiada.

As recomendações propostas não são medidas isoladas, mas formam uma estrutura estratégica profundamente interconectada e interdependente. Por exemplo, a transparência técnica aprimorada (uma solução tecnológica) permite diretamente uma maior responsabilização (um princípio de governança), o que, por sua vez, fornece as informações necessárias para uma educação pública eficaz (uma intervenção social). Essa perspectiva holística é crucial porque o problema do impacto da IA na esfera pública é sistêmico e exige uma resposta multifacetada e coordenada em domínios tecnológicos, regulatórios e sociais. A viabilidade futura da deliberação democrática e a saúde da esfera pública digital dependem de uma abordagem proativa e preventiva para a governança da IA, em vez de meramente reagir aos danos após sua ocorrência. Isso implica uma mudança fundamental de paradigma, onde as considerações éticas são integradas ao desenvolvimento e implantação da IA desde o início, reconhecendo que “o código agora faz parte da conversa” e “o modelo de classificação é um ator político” . O imperativo é moldar ativamente o futuro da IA para servir aos valores democráticos, em vez de permitir que a tecnologia dite os termos do discurso público.

Recomendações para Mitigar os Riscos e Promover uma Esfera Pública Digital Mais Saudável e Democrática

  • Regulamentação e Governança Robustas: Há uma necessidade urgente de desenvolvimento e implementação de estruturas regulatórias adaptativas para a IA. Essas estruturas devem priorizar a transparência, a responsabilização e uma supervisão humana robusta no design e na implantação da IA . Isso inclui a obrigatoriedade de escrutínio das árvores de decisão algorítmicas e a exploração de modelos para a co-propriedade pública da lógica algorítmica para garantir o controle democrático sobre esses sistemas poderosos .
  • Transparência Algorítmica Mandatória: É crucial exigir a divulgação explícita do uso de IA na criação de conteúdo, particularmente em publicidade política e comunicação pública . A implementação de registros de auditoria para comportamentos de classificação de conteúdo e o estabelecimento de júris cívicos independentes para avaliar a imparcialidade algorítmica podem aumentar a responsabilização e construir a confiança pública .
  • Educação e Alfabetização Digital Abrangentes: A promoção generalizada da alfabetização em IA, habilidades de pensamento crítico e programas abrangentes de alfabetização midiática é essencial para capacitar os cidadãos. Isso lhes permitirá navegar efetivamente em ambientes de informação complexos, discernir conteúdo manipulado e engajar-se criticamente com narrativas digitais . A integração da educação em IA nos currículos educacionais básicos desde o início é uma estratégia vital de longo prazo .
  • Pesquisa e Desenvolvimento Ético Contínuos: O investimento sustentado em pesquisa focada na segurança da IA, alinhamento e técnicas robustas de mitigação de vieses é primordial. Isso deve envolver o fomento de diversas perspectivas nas equipes de desenvolvimento de IA e nos processos de formulação de políticas para garantir resultados equitativos e inclusivos . Concomitantemente, o desenvolvimento contínuo de ferramentas avançadas de detecção para deepfakes e outras formas de desinformação geradas por IA é necessário para acompanhar a evolução das ameaças .
  • Promoção de Colaboração Multi-stakeholder: Abordar esses desafios complexos exige esforços concertados e ação colaborativa. Incentivar parcerias robustas entre governos, empresas de tecnologia, instituições acadêmicas e organizações da sociedade civil é vital para desenvolver abordagens inclusivas e eficazes para a governança da IA, estabelecendo normas éticas compartilhadas e implementando salvaguardas que protejam o bem público .

Sugestões para Futuras Pesquisas

  • Realização de estudos empíricos longitudinais para avaliar os efeitos de longo prazo da polarização impulsionada por IA na participação democrática, confiança social e engajamento cívico em diversas demografias.
  • Desenvolvimento e avaliação rigorosa da eficácia de novas ferramentas de detecção e mitigação de IA, particularmente contra tecnologias de deepfake cada vez mais sofisticadas e redes automatizadas de desinformação.
  • Realização de estudos comparativos transculturais para entender como o impacto da IA nas esferas públicas varia em diferentes sistemas políticos, contextos culturais e ambientes regulatórios.
  • Pesquisa e teste de pedagogias e intervenções educacionais inovadoras destinadas a fomentar a alfabetização digital e em IA para cultivar uma cidadania mais resiliente, criticamente engajada e informada diante das ameaças digitais em evolução.

Referências

LÉVY, P. A inteligência coletiva: por uma antropologia do ciberespaço. São Paulo: Loyola, 2007.

FUCHS, C. Digital Democracy and the Digital Public Sphere: Media, Communication and Society Volume Six. 1. ed. London: Routledge, 2022.

GD, L. Reprogramming the Public Sphere: Toward a Democratic Theory of Algorithms. Medium, 2025. Disponível em: https://liorgd.medium.com/reprogramming-the-public-sphere-toward-a-democratic-theory-of-algorithms-84940705b69f. Acesso em: 31 jul. 2024.

COHEN, J. E. Infrastructuring the Digital Public Sphere. Georgetown Law Journal, v. 33, n. 2-3, p. 164–192, 2023. Disponível em: https://scholarship.law.georgetown.edu/context/facpub/article/3535/viewcontent/cohen_julie___infrastructuring_the_digital_public_sphere.01.pdf. Acesso em: 31 jul. 2024.

UNESCO. Ethics of Artificial Intelligence. 2021. Disponível em: https://www.unesco.org/en/artificial-intelligence/recommendation-ethics. Acesso em: 31 jul. 2024.

MYERS, C. Navigating Ethical Implications for AI-Driven PR Practice. Public Relations Society of America, 2024. Disponível em: https://www.prsa.org/article/navigating-ethical-implications-for-ai-driven-pr-practice. Acesso em: 31 jul. 2024.

YOUTUBE. Inteligência Artificial e a polarização política nas redes sociais. YouTube, 2024. Disponível em: https://www.youtube.com/watch?v=b34yn6bs75c. Acesso em: 31 jul. 2024.

ARXIVE. The rise of social media has fundamentally transformed how people engage in public discourse and form opinions. While these platforms offer unprecedented opportunities for democratic engagement, they have been implicated in increasing social polarization and the formation of ideological echo chambers. arXiv, 2025. Disponível em: https://arxiv.org/html/2506.15866v1. Acesso em: 31 jul. 2024.

MIT ECONOMICS. AI and Social Media – A Political Economy Perspective. MIT Economics, 2025. Disponível em: https://economics.mit.edu/sites/default/files/2025-05/AI%20and%20Social%20Media%20-%20A%20Political%20Economy%20Perspective.pdf. Acesso em: 31 jul. 2024.

EM. Como a inteligência artificial está revolucionando a arte de contar histórias, confira. Estado de Minas, 2025. Disponível em: https://www.em.com.br/emfoco/2025/02/20/como-a-inteligencia-artificial-esta-revolucionando-a-arte-de-contar-historias-confira/. Acesso em: 31 jul. 2024.

REVISTA GEMINIS. À medida que a IA se torna cada vez mais integrada nas práticas de produção e narrativa, enfrentamos novos desafios e oportunidades que estão definindo o futuro da mídia. Revista Geminis, 2024. Disponível em: https://www.revistageminis.ufscar.br/index.php/geminis/article/view/846. Acesso em: 31 jul. 2024.

MDPI. This study examines how large language models reproduce Jungian archetypal patterns in storytelling. Results indicate that AI excels at replicating structured, goal-oriented archetypes (Hero, Wise Old Man), but it struggles with psychologically complex and ambiguous narratives (Shadow, Trickster). MDPI, 2023. Disponível em: https://www.mdpi.com/2078-2489/16/4/319. Acesso em: 31 jul. 2024.

NESS. There is an ongoing battle in our society to control the narrative, to influence the flow of information, and thereby move the needle on what people think and how they behave. This is nothing new, but the mechanisms for controlling the narrative are evolving as our communication technology evolves. The Ness, 2024. Disponível em: https://theness.com/neurologicablog/controlling-the-narrative-with-ai/. Acesso em: 31 jul. 2024.

SUBSTANTIVE JUSTICE. In the rapidly evolving era of information technology, the emergence of “deepfakes” hyper-realistic digital manipulations powered by artificial intelligence has introduced complex and pressing challenges to the field of victimology. Substantive Justice, 2025. Disponível em: https://www.substantivejustice.id/index.php/sucila/article/view/306. Acesso em: 31 jul. 2024.

HABERMAS, J. The Structural Transformation of the Public Sphere. Cambridge, MA: MIT Press, 1989.

WESSLER, H. Editorial: Reconceptualizing public sphere(s) in the digital age? On the role and future of public sphere theory. Communication Theory, v. 33, n. 2-3, p. 61–72, 2023. Disponível em: https://academic.oup.com/ct/article/33/2-3/61/7205472. Acesso em: 31 jul. 2024.

SCHÄFER, M. S. Digital Public Sphere. In: MAZZOLENI, G. (Ed.). The International Encyclopedia of Political Communication. Wiley, 2015. p. 322-328. Disponível em: https://www.researchgate.net/publication/291312249_Digital_Public_Sphere. Acesso em: 31 jul. 2024.

SCHÄFER, M. S. Digital Public Sphere. In: MAZZOLENI, G. (Ed.). The International Encyclopedia of Political Communication. Wiley, 2015. p. 322-328. Disponível em: https://www.researchgate.net/profile/Mike-Schaefer-3/publication/291312249_Digital_Public_Sphere/links/59f97ce9458515547c26c3e0/Digital-Public-Sphere.pdf. Acesso em: 31 jul. 2024.

BRASIL ESCOLA. Desafios Éticos da Inteligência Artificial. Brasil Escola, 2024. Disponível em: https://meuartigo.brasilescola.uol.com.br/informatica/implicacoes-eticas-da-inteligencia-artificial-desafios-e-estrategias.htm. Acesso em: 31 jul. 2024.

MADEFY. Um dos principais desafios éticos na IA é o viés algorítmico. Madefy, 2024. Disponível em: https://madefy.com.br/etica-na-inteligencia-artificial-desafios-para-uma-sociedade-mais-consciente/. Acesso em: 31 jul. 2024.

PARK UNIVERSITY. Ethical Considerations in Using AI for Academic and Professional Work. Park University, 2024. Disponível em: https://support.park.edu/support/solutions/articles/6000275008-ethical-considerations-in-using-ai-for-academic-and-professional-work. Acesso em: 31 jul. 2024.

DUNLEAVY, P.; MARGETTS, H. Artificial intelligence (AI) affects the legitimacy, efficacy, and legality of public service provision. Journal of Public Administration Research and Theory, v. 33, n. 2-3, p. 164–192, 2024. Disponível em: https://academic.oup.com/jpart/advance-article/doi/10.1093/jopart/muaf009/8116003. Acesso em: 31 jul. 2024.

GIRON, V. How Algorithmic Discrimination Exacerbates U.S. Partisan Tensions on Social Media Platforms. Political Science, 2025. Disponível em: https://www.polisci.uci.edu/files/docs/theses/2024-25/2025_valerie_giron.pdf. Acesso em: 31 jul. 2024.

FRONTIERS. Algorithmic discrimination: examining its types and regulatory measures with emphasis on US legal practices. Frontiers in Artificial Intelligence, 2024. Disponível em: https://www.frontiersin.org/journals/artificial-intelligence/articles/10.3389/frai.2024.1320277/full. Acesso em: 31 jul. 2024.

CAL STATE FULLERTON. Ethical Principles AI Framework for Higher Education. Cal State Fullerton, 2025. Disponível em: https://www.fullerton.edu/it/ai/ethical-principles-ai-framework.html. Acesso em: 31 jul. 2024.

CSU AI COMMONS. ETHICAL Principles AI Framework for Higher Education. CSU AI Commons, 2025. Disponível em: https://genai.calstate.edu/communities/faculty/ethical-and-responsible-use-ai/ethical-principles-ai-framework-higher-education. Acesso em: 31 jul. 2024.

TIMES OF INDIA. AI but verify: navigating future of learning. Times of India, 2024. Disponível em: https://timesofindia.indiatimes.com/city/delhi/ai-but-verify-navigating-future-of-learning/articleshow/123080374.cms. Acesso em: 31 jul. 2024.

RESEARCHGATE. While AI enhances efficiency and allows for real-time customisation of messages, it also presents ethical challenges related to privacy, data security, and algorithmic bias. ResearchGate, 2025. Disponível em: https://www.researchgate.net/publication/387139527_AI_in_Communication_Theoretical_Perspectives_Ethical_Implications_and_Emerging_Competencies. Acesso em: 31 jul. 2024.

WIKIPEDIA. Ethics of artificial intelligence. Wikipedia, 2024. Disponível em: https://en.wikipedia.org/wiki/Ethics_of_artificial_intelligence. Acesso em: 31 jul. 2024.

MKAI. Discover more at www.mkai.org Rosana de Oliveira Gomes Lead Machine Learning Engineer & Project Manager at Omdena MKAI AI TECHNICAL FORUM MARCH 2021: TRUST IN THE AGE OF AI – PART 3: AI FOR SMARTER ENERGY MANAGEMENT MKAI is a responsible AI community that engages in open-minded conversation and crowdsourced projects regarding important artificial intelligence themes including; ethics, inclusivity, privacy and sustainability. We attract people from different walks of life, with different experiences. Our diversity is our strength. We don’t focus on being ‘right’. Instead, we seek to learn, listen and explore. Compassion and kindness are the glue that bonds us together. AI needs all of us, and all of us need AI. maiquelgomes.com.br, 2021. Disponível em: https://www.youtube.com/watch?v=ZNld5JrHrhM. Acesso em: 31 jul. 2024.

PMC. We contend that the rapid integration of AI into society demands a comprehensive understanding of its ethical implications and the development of strategies to harness its potential for the greater good while mitigating harm. PMC, 2025. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC11522648/. Acesso em: 31 jul. 2024.

KNIGHT COLUMBIA. AI may make such representations more accurate by efficiently scaling up the publics, correcting common epistemic pathologies to guide diverse and polarized publics toward common agreement on politically contentious questions, and using dialogue to obviate conspiracy theories. Knight Columbia, 2024. Disponível em: https://knightcolumbia.org/content/ai-and-democratic-publics. Acesso em: 31 jul. 2024.

FAIROBSERVER. Shaping Public Discourse: The Dual Edge of AI in Democracy. Fair Observer, 2024. Disponível em: https://www.fairobserver.com/more/science/shaping-public-discourse-the-dual-edge-of-ai-in-democracy/. Acesso em: 31 jul. 2024.

EUROPARL. Digital technology was once heralded as a boon for democracy. However, the contemporary political reality has underscored the ways in which technology can also undermine citizenship, democracy and the international liberal world order. European Parliament, 2019. Disponível em: https://www.europarl.europa.eu/RegData/etudes/STUD/2019/634414/EPRS_STU(2019)634414_EN.pdf. Acesso em: 31 jul. 2024.

FOREIGN AFFAIRS FORUM. Biased AI Models Are Increasing Political Polarization: Geographic Origin Shapes AI Worldviews. Foreign Affairs Forum, 2025. Disponível em: https://www.faf.ae/home/2025/5/12/biased-ai-models-are-increasing-political-polarization-geographic-origin-shapes-ai-worldviews. Acesso em: 31 jul. 2024.

PMC. The ability to distort the visual record is not new. Airbrushed images attempted to alter the historical archives in the early 1900s. Today, digitally manipulated cheapfakes and deepfakes supercharge the spread of lies and conspiracies. PMC, 2025. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC12305536/. Acesso em: 31 jul. 2024.

ARXIV. Generative AI, tools for voice cloning, face-swapping, and synthetic media creation have advanced significantly, lowering both financial and technical barriers for their use. While these technologies present innovative opportunities, their rapid growth raises concerns about trust, privacy, and security. arXiv, 2025. Disponível em: https://www.arxiv.org/pdf/2506.07363. Acesso em: 31 jul. 2024.

RESEARCHGATE. In recent years, Artificial Intelligence (AI)… The manipulation strategies used in social media include spreading propaganda, driving division and polarization. ResearchGate, 2019. Disponível em: https://www.researchgate.net/publication/330130334_Assessment_Methodology_for_Collateral_Damage_and_Military_DisAdvantage_in_Cyber_Operations. Acesso em: 31 jul. 2024.

CAS LEHIGH. Now, due to the easy accessibility of the technology known as AI, or artificial intelligence, political candidates – or their supporters – can take lying much further than speaking or writing mistruths. They can try to sway public opinion by creating very believable fake images, video and audio that purport to be someone or something they are not. Lehigh University, 2024. Disponível em: https://cas.lehigh.edu/articles/ai-free-speech-future-democracy. Acesso em: 31 jul. 2024.

TURING. It evaluates the impact of AI-generated disinformation on US election integrity, revealing no conclusive evidence that such content manipulated the results. However, deceptive AI-generated content still influenced election discourse, amplified harmful narratives and entrenched political polarisation. The Alan Turing Institute, 2025. Disponível em: https://cetas.turing.ac.uk/publications/ai-enabled-influence-operations-safeguarding-future-elections. Acesso em: 31 jul. 2024.

ACADEMIC OUP. The ethical challenges of AI in the public arena stem from its impact on information shaping, content generation, and its role as a communicating agent, leading to issues of control, information quality, and assessability. Academic OUP, 2023. Disponível em: https://academic.oup.com/ct/article/33/2-3/164/7202294. Acesso em: 31 jul. 2024.

JOURNAL OF DEMOCRACY. The most problematic aspect of generative AI is that it hides in plain sight, producing enormous volumes of content that can flood the media landscape, the internet, and political communication with meaningless drivel at best and misinformation at worst. Journal of Democracy, 2024. Disponível em: https://www.journalofdemocracy.org/articles/how-ai-threatens-democracy/. Acesso em: 31 jul. 2024.

TECHUK. Deepfakes and disinformation: what impact could this have on elections in 2024. techUK, 2024. Disponível em: https://www.techuk.org/resource/deepfakes-and-disinformation-what-impact-could-this-have-on-elections-in-2024.html. Acesso em: 31 jul. 2024.

SAMPIERI, R. H.; COLLADO, C. F.; LUCIO, P. B. Metodologia de Pesquisa. São Paulo: McGraw-Hill, 2006.

UCP. Taking the conclusions of the studies of Ramos et al… Lucio, Metodologia de Pesquisa, 3rd ed, São Paulo… In Online Tutoring e-book, C. Higgison. Universidade Católica Portuguesa, 2011. Disponível em: https://repositorio.ucp.pt/server/api/core/bitstreams/e7b1e16e-38c7-4ed7-941c-3f423e20040a/content. Acesso em: 31 jul. 2024.

UFJF. tomada de decisão da organização (LUSTOSA et al., 2008)…. books/9788522484751… SAMPIERE, R. H.; COLLADO, C.F.; LUCIO, P. B. Metodologia de Pesquisa. Universidade Federal de Juiz de Fora, 2017. Disponível em: http://www.repositorio.ufjf.br/jspui/bitstream/ufjf/13452/1/sabrinaferreiradossantos.pdf. Acesso em: 31 jul. 2024.

QUALTRICS. The ultimate guide to AI research strategies. Qualtrics, 2024. Disponível em: https://www.qualtrics.com/experience-management/research/ai-research-strategies/. Acesso em: 31 jul. 2024.

PMC. Harnessing Artificial Intelligence for Qualitative and Mixed Methods in Nursing Research. PMC, 2023. Disponível em: https://pmc.ncbi.nlm.nih.gov/articles/PMC10710268/. Acesso em: 31 jul. 2024.

APS. Mathematical modeling is a frequently applied method to elucidate the mechanisms behind social influence and ideological polarization. Physical Review Research, 2024. Disponível em: https://link.aps.org/doi/10.1103/PhysRevResearch.6.013170. Acesso em: 31 jul. 2024.

RESEARCHGATE. Analyzing Polarization of Social Media Users and News Sites during Political Campaigns. ResearchGate, 2017. Disponível em: https://www.researchgate.net/publication/321168354_Analyzing_Polarization_of_Social_Media_Users_and_News_Sites_during_Political_Campaigns. Acesso em: 31 jul. 2024.

NUMBER ANALYTICS. Overview of Qualitative Research Methods. Number Analytics, 2025. Disponível em: https://www.numberanalytics.com/blog/research-methods-social-media-analysis. Acesso em: 31 jul. 2024.

NUMBER ANALYTICS. In media studies, researchers use a variety of data collection methods, including surveys, content analysis, and experimental designs. Number Analytics, 2025. Disponível em: https://www.numberanalytics.com/blog/quantitative-research-media-studies-ultimate-guide. Acesso em: 31 jul. 2024.

CONCORDIA. New Concordia research shows social networks are vulnerable to relatively simple AI manipulation and polarization. Concordia University, 2025. Disponível em: https://www.concordia.ca/news/stories/2025/04/14/new-concordia-research-shows-social-networks-are-vulnerable-to-relatively-simple-ai-manipulation-and-polarization.html. Acesso em: 31 jul. 2024.

CONCORDIA. The new method of making online polarization easier involves using reinforcement learning to identify which hacked user’s social media account is best positioned to maximize online polarization with the least amount of guidance. This approach was developed by Concordia researchers, and their paper on the topic was published in the journal IEEE Xplore. Concordia University, 2025. Disponível em: https://www.concordia.ca/news/stories/2025/04/14/new-concordia-research-shows-social-networks-are-vulnerable-to-relatively-simple-ai-manipulation-and-polarization.html. Acesso em: 31 jul. 2024.

AIDOCMAKER. Transform text into lifelike AI generated images. Aidocmaker, 2024. Disponível em: https://www.aidocmaker.com/. Acesso em: 31 jul. 2024.

COLORADO LAW REVIEW. After introducing how social media platforms employ AI in their editorial operations, it outlines the foundational values of democratic self-governance, the marketplace of ideas, and autonomy underlying the First Amendment, and assesses how the use of AI impacts those values. Colorado Law Review, 2024. Disponível em: https://lawreview.colorado.edu/print/volume-95/machine-manipulation-why-an-ai-editor-does-not-serve-first-amendment-values/. Acesso em: 31 jul. 2024.

URIMEDIASTUDIES. Qualitative Research Methods for Media Studies provides students and researchers with the tools they need to perform critically engaged, theo- retically informed research using methods that include interviewing, focus groups, historical research, oral histories, ethnography and participant observation, and textual. URI Media Studies, 2016. Disponível em: https://urimediastudies.wordpress.com/wp-content/uploads/2016/10/bonnie-brennen-qualitative-media-research.pdf. Acesso em: 31 jul. 2024.

WILEY. Enhance your article’s visibility: a guide to SEO for journal authors. Wiley, 2025. Disponível em: https://www.wiley.com/en-us/network/publishing/research-publishing/preparing-your-article/enhance-your-articles-visibility-a-guide-to-seo-for-journal-authors. Acesso em: 31 jul. 2024.

YALE LAW SCHOOL. The Information Society Project (ISP) at Yale Law School has launched “Artificial Intelligence and the Digital Public Sphere,” a collection of five essays that explore how the advent of artificial intelligence (AI) stands to impact the digital public sphere. Yale Law School, 2024. Disponível em: https://law.yale.edu/yls-today/news/isp-publishes-collection-artificial-intelligence-and-digital-public-sphere. Acesso em: 31 jul. 2024.

SPRINGER NATURE. Springer Nature unveils two new AI tools to protect research integrity. Springer Nature Group, 2024. Disponível em: https://group.springernature.com/gp/group/media/press-releases/new-research-integrity-tools-using-ai/27200740. Acesso em: 31 jul. 2024.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *