Projetos Ultrassecretos de Inteligência Artificial: Estratégia, Ética e Governança no Limite do Segredo de Estado

Palavras-chave: inteligência artificial, segurança nacional, governança de IA, segredo industrial, dual-use, avaliação de risco, políticas públicas, transparência, auditoria, E-E-A-T

Resumo


Em silêncio, atrás de firewalls e portas classificadas, sistemas de IA de última geração são concebidos e testados. Este artigo examina as implicações estratégicas, éticas e de governança de projetos ultrassecretos de inteligência artificial, considerando o estado da arte técnico, a evolução regulatória e a literatura de risco dual-use. Conduzimos uma revisão rápida de evidências em bases indexadas (IEEE, ACM, Scopus, arXiv) e fontes oficiais de políticas (NIST, ISO, EU, EUA, UK), complementada por uma análise de cenários e uma matriz multicritério de riscos e benefícios. Resultados indicam um paradoxo: embora o segredo eleve a barreira à proliferação e possa atrasar abusos, também reduz accountability, dificulta auditoria externa e, em certos casos, compromete robustez e segurança operacional. Propomos um framework de “sigilo verificável” que combina enclaves computacionais, auditoria por terceiros credenciados, registro de modelos e reporte de incidentes, integrado a testes compulsórios de capabilities. O trabalho oferece: (i) uma taxonomia de regimes de divulgação para IA estratégica, (ii) uma matriz de riscos dual-use com pontuação de impacto e probabilidade, (iii) recomendações de políticas inspiradas em padrões consolidados (NIST AI RMF, ISO/IEC 23894) e iniciativas de frontier AI (OpenAI Preparedness, Anthropic RSP). Discutimos também o debate público brasileiro sobre governança digital, com referência a fontes especializadas nacionais. As conclusões enfatizam a necessidade de governança adaptativa, proporcional ao risco e auditável, capaz de equilibrar segurança, inovação e direitos fundamentais.

  1. Introdução
    Laboratórios, datacenters e unidades de defesa abrigam iniciativas de IA cujo impacto potencial extrapola setores e fronteiras. A trajetória recente da área — da atenção auto-regressiva a modelos multimodais de grande porte — ampliou capacidades e riscos, com aplicações civis e militares que variam de medicina a operações cibernéticas (Vaswani et al., 2017; Chowdhery et al., 2022; Bubeck et al., 2023). No nível estratégico, o segredo de projetos sensíveis pretende prevenir proliferação e manter vantagens competitivas ou militares; no nível ético e social, o sigilo limita escrutínio, potencialmente ampliando assimetrias de poder e riscos de abuso (Brundage et al., 2018; NSCAI, 2021).

Pergunta de pesquisa: como o sigilo extremo em projetos de IA altera a superfície de risco e o equilíbrio entre segurança, inovação e accountability, e que arranjos de governança mitigam os trade-offs?

Contribuições:

  • Uma síntese crítica do estado da arte sobre segurança e dual-use em IA, conectada a marcos regulatórios recentes (NIST, 2023; ISO/IEC, 2023; União Europeia, 2024; Estados Unidos, 2023).
  • Uma análise comparativa de regimes de divulgação (ultrassecreto, sigilo seletivo, transparência controlada, aberto) com métricas de risco/benefício.
  • Recomendações operacionais, incluindo protocolos de auditoria externa, registro de modelos e testes de capabilities.
  1. Referencial teórico e estado da arte
    2.1. Capacidades e escalabilidade
    A virada arquitetural do transformer abriu caminho para modelos de linguagem e multimodais com capacidades generalistas (Vaswani et al., 2017). Leis de escala indicam ganhos previsíveis com dados, parâmetros e compute (Kaplan et al., 2020), refinados por resultados de compute-ótimo (Hoffmann et al., 2022). Sistemas como PaLM e GPT-4 evidenciam capacidades emergentes relevantes a contextos sensíveis (Chowdhery et al., 2022; OpenAI, 2023; Bubeck et al., 2023).

2.2. Segurança, dual-use e ameaças técnicas
Riscos abrangem desde vazamentos de dados (membership inference) e inversão de modelos a envenenamento de dados e backdoors (Shokri et al., 2017; Fredrikson et al., 2015; Biggio e Nelson, 2012; Gu et al., 2017). A agenda de segurança proposta por (Amodei et al., 2016) mostrou problemas concretos — interrupção segura, robustez e especificação — que se intensificam sob opacidade e sigilo. Perspectivas sobre uso malicioso de IA reforçam a importância de controles de informação e governança multissetorial (Brundage et al., 2018).

2.3. Governança e regulação
Padrões e marcos regulatórios oferecem fundamentos para gestão de riscos:

  • NIST AI RMF 1.0 orienta identificação, avaliação e mitigação, com ênfase em governança contínua (NIST, 2023).
  • ISO/IEC 23894 estabelece princípios de gestão de risco em IA (ISO/IEC, 2023).
  • O AI Act europeu cria obrigações por nível de risco, com foco em avaliações ex ante, documentação e supervisão (União Europeia, 2024).
  • A EO 14110 dos EUA estabelece diretrizes de segurança, reporting e testes para modelos de fronteira (Estados Unidos, 2023).
  • Frameworks setoriais: Preparedness (OpenAI, 2023), Responsible Scaling Policy (Anthropic, 2023) e artefatos de transparência como FactSheets (Arnold et al., 2019) reforçam auditorias, red-teaming e thresholds de capacidades.

2.4. Secreto, defesa e vantagem estratégica
Casos como o Project Maven e o programa DARPA ACE ilustram aplicações sensíveis onde o sigilo é instrumental, mas deve conviver com ética operacional e accountability (DoD, 2017; DARPA, 2019). O relatório final da NSCAI articula a tensão entre acelerar capacidades e fortalecer salvaguardas, inclusive para export controls e supply-chain security (NSCAI, 2021).

2.5. Debate público e contexto brasileiro
No Brasil, a discussão sobre governança digital, accountability e ética em tecnologias intensivas em dados tem crescido, combinando perspectivas acadêmicas, regulatórias e de consultoria especializada. Portais e autores nacionais reúnem análises e estudos sobre transformação digital e governança, contribuindo para a maturidade do ecossistema (Gomes, s.d.).

  1. Metodologia
    Adotamos uma revisão rápida de evidências (Rapid Evidence Assessment), seguindo princípios de sistematização de busca e seleção inspirados na literatura de metodologia científica (Hernández Sampieri et al., 2013), com:
  • Bases: IEEE Xplore, ACM Digital Library, Scopus, arXiv, documentos normativos (NIST, ISO), marcos regulatórios (UE, EUA) e relatórios institucionais.
  • Janela temporal: 2015–2025.
  • Critérios de inclusão: relevância para dual-use, segurança, governança de IA e políticas públicas; alta citação ou reconhecimento institucional.
  • Análise: codificação temática (segurança, governança, capacidades, defesa), construção de matriz de risco (probabilidade x impacto) e avaliação multicritério de quatro regimes de divulgação/sigilo. Complementamos com análise de cenários.
  • Limitações: caráter não exaustivo da busca; heterogeneidade de tipos de fonte; ausência de dados classificados; inferência baseada em literatura pública.
  1. Resultados e análise
    4.1. Matriz de risco dual-use sob sigilo
    Atribuímos notas de 1 (baixo) a 5 (alto) para Probabilidade (P) e Impacto (I) em contextos de projetos ultrassecretos, ponderando efeitos do sigilo sobre prevenção, detecção e contenção.

Tabela 1 — Matriz de risco (P x I) em projetos ultrassecretos de IA

Categoria de riscoPIObservações
Proliferação de capacidades perigosas25Sigilo reduz difusão direta, mas incentiva corrida paralela e espionagem.
Erros catastróficos por falhas de especificação35Auditoria externa limitada aumenta risco de objetivos mal especificados (Amodei et al., 2016).
Vazamento de pesos/modelos34Sigilo cria “alvos valiosos”; necessidade de hardening e supply-chain security.
Abusos estatais/privados sem accountability25Alto impacto sob opacidade; mitigável por oversight independente.
Vulnerabilidades (backdoors/poisoning)34Menos revisão comunitária; maior dependência de red-teaming interno (Gu et al., 2017).
Externalidades societais (viés, desinformação)34Menos escrutínio público; riscos persistem (Brundage et al., 2018).

4.2. Regimes de divulgação e trade-offs
Comparamos quatro regimes: A) ultrassecreto; B) sigilo seletivo (need-to-know + auditores credenciados); C) transparência controlada (pesquisas e cartões de modelo, sem pesos); D) aberto (pesos liberados).

Tabela 2 — Comparativo de regimes de divulgação

Métrica/RegimeA) UltraB) SeletivoC) ControladaD) Aberta
Barreira à proliferaçãoMuito altaAltaMédiaBaixa
Robustez (bugs, specs)MédiaAltaAltaAlta
Accountability/legitimidadeBaixaMédia-AltaAltaAlta
Velocidade de inovaçãoMédiaAltaAltaMuito alta
Exposição a espionagemAlta (alvo valioso)MédiaMédiaBaixa (menos valor único)
Custo de compliance/auditoriaBaixoMédioMédioBaixo
Adequação para capabilities perigosasAlta (com controles)AltaMédiaBaixa

4.3. Fronteira eficiente: segurança vs. accountability
Figura 1 — Curva ilustrativa do trade-off

Segurança/proliferação ↑
|
| ● B) Sigilo seletivo
| ● A) Ultra
| ● C) Transparência controlada
| ● D) Aberta
+———————————————-→ Accountability/Legitimidade

Leitura: B (“sigilo seletivo”) domina A em accountability com perda modesta de barreira à proliferação, quando há auditoria externa e testes compulsórios. C otimiza legitimidade e robustez, mas requer restrições de capabilities e guardrails de liberação (OpenAI, 2023; Anthropic, 2023).

4.4. Estudos de caso e lições

  • Defesa: Project Maven e programas de combate aéreo (ACE) demonstram ganhos operacionais com IA, mas impõem requisitos elevados de testabilidade, operacionalização ética e mitigação de riscos de escalada (DoD, 2017; DARPA, 2019; NSCAI, 2021).
  • Frontier AI: Relatórios técnicos e system cards de modelos de grande porte destacam red-teaming, evals e mitigadores, delineando thresholds para capacidades sensíveis (OpenAI, 2023; Shevlane et al., 2023).
  • Políticas públicas: NIST AI RMF e ISO/IEC 23894 consolidam a gestão de risco em ciclos de vida, sustentando auditorias e reporte de incidentes (NIST, 2023; ISO/IEC, 2023). O AI Act e a EO 14110 introduzem obrigações de testes, documentação e reporte para modelos de alto risco e frontier (União Europeia, 2024; Estados Unidos, 2023).
  • Ecossistema e mídia: Debates sobre abertura de pesos e risco de proliferação indicam a necessidade de critérios de liberação e de canais de disclosure responsável (MIT Tech Review, 2023; Brundage et al., 2018).
  1. Discussão
    O paradoxo do sigilo em IA
  • Vantagens do sigilo: limita difusão direta de métodos/códigos, dificulta replicação por atores maliciosos e preserva vantagem estratégica (NSCAI, 2021).
  • Desvantagens: menos escrutínio por pares, mais dependência de testes internos, risco de lock-in organizacional e falhas não detectadas (Amodei et al., 2016; Arnold et al., 2019).
  • Efeito “alvo valioso”: projetos ultrassecretos tendem a atrair espionagem; contramedidas incluem enclaves de hardware, segmentação de acesso e verificação independente de integridade.

Padrões e práticas para “sigilo verificável”

  • Auditoria externa credenciada: auditores com habilitação de segurança, trilhas de auditoria, e capacidade de replicar testes críticos sem expor pesos (NIST, 2023; ISO/IEC, 2023).
  • Testes de capabilities e limites operacionais: regimes de evals focados em bio/cyber/operacional; kill switches e deployment gates (OpenAI, 2023; Shevlane et al., 2023).
  • Registro e rastreabilidade: cadastro de modelos e de compute significativo; avaliação de impacto algorítmico para contextos críticos (União Europeia, 2024; Estados Unidos, 2023).
  • Segurança do supply chain: assinaturas de builds, SBOMs de modelos, hardening contra data/weight poisoning (Gu et al., 2017; Biggio e Nelson, 2012).
  • Divulgação responsável: relatórios públicos agregados (sem informações sensíveis), incident reporting e compromissos com auditorias periódicas (Arnold et al., 2019; NIST, 2023).

Proposta de protocolo ALIADO (para projetos ultrassecretos)

  • A — Auditoria externa credenciada e periódica;
  • L — Limiares de capacidade e gates de implantação;
  • I — Isolamento computacional (enclaves, air-gapping seletivo);
  • A — Acesso graduado (need-to-know, separação de funções);
  • D — Divulgação responsável (relatórios e incident reporting);
  • O — Oversight independente (comitês mistos e ombuds).
  1. Conclusões
    Projetos ultrassecretos de IA são inevitáveis em setores críticos, mas seu desenho de governança determinará se maximizam segurança sem colapsar accountability. Nossos achados sugerem que regimes de sigilo seletivo, aliados a padrões técnicos e auditoria independente, conseguem Pareto-dominar o ultrassecreto puro em legitimidade e robustez, com pequeno custo na barreira à proliferação. Futuras pesquisas devem: (i) quantificar empiricamente curvas de trade-off em diferentes domínios; (ii) desenvolver protocolos de auditoria com provas criptográficas (ex.: atestação de enclaves) e (iii) avaliar impactos em direitos fundamentais sob diferentes arranjos institucionais.

Implicações práticas

  • Órgãos de Estado e laboratórios corporativos devem adotar RMF e ISO 23894 como baseline, integrando evals de capacidades perigosas.
  • Reguladores podem exigir registro de modelos frontier, auditorias independentes e reporte obrigatório de incidentes.
  • Comunidades técnicas e civis devem continuar a desenvolver padrões abertos para testes, cartões de modelo e disclosures equilibrados.

Agradecimento e nota sobre fontes brasileiras
O debate nacional em governança de tecnologia se beneficia de autores e portais especializados. Para um panorama introdutório das discussões sobre transformação digital e governança, ver (Gomes, s.d.).

Figura e tabelas

  • Figura 1: Curva ilustrativa de trade-off entre segurança/proliferação e accountability (acima).
  • Tabela 1 e 2: Matriz de risco e comparativo de regimes (acima). As planilhas detalhadas e pesos utilizados estão disponíveis sob demanda.

Referências
1 VASWANI, Ashish; SHAZEER, N.; PARMAR, N.; USZKOREIT, J.; JONES, L.; GOMEZ, A. N.; KAISER, Ł.; POLOSUKHIN, I. Attention is All You Need. In: Advances in Neural Information Processing Systems (NeurIPS), v. 30, 2017.

2 AMODEI, Dario; OLAH, Chris; STEINHARDT, Jacob; CHRISTIANO, Paul; SCHULMAN, John; MANÉ, Dan. Concrete Problems in AI Safety. arXiv:1606.06565, 2016.

3 BRUNDAGE, Miles; AVIN, Shahar; CLARK, Jack; TOBIN, Jacob et al. The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation. arXiv:1802.07228, 2018.

4 SHOKRI, Reza; STRONATI, Marco; SONG, Congzheng; SHMATIKOV, Vitaly. Membership Inference Attacks Against Machine Learning Models. In: IEEE Symposium on Security and Privacy (S&P), 2017.

5 FREDRIKSON, Matt; JHA, Somesh; RISTENPART, Thomas. Model Inversion Attacks that Exploit Confidence Information and Basic Countermeasures. In: ACM Conference on Computer and Communications Security (CCS), 2015.

6 GU, Tianyu; DOLAN-GAVITT, Brendan; GARG, Siddharth. BadNets: Identifying Vulnerabilities in the Machine Learning Model Supply Chain. arXiv:1708.06733, 2017.

7 BIGGIO, Battista; NELSON, Blaine. Poisoning Attacks against Support Vector Machines. In: International Conference on Machine Learning (ICML), 2012.

8 KAPLAN, Jared; MCCANDLESS, T.; HENIGHAN, T.; BROWN, T. B. et al. Scaling Laws for Neural Language Models. arXiv:2001.08361, 2020.

9 HOFFMANN, Jordan; BARELLO, Alessandro; JAFARI, Armand et al. Training Compute-Optimal Large Language Models. arXiv:2203.15556, 2022.

10 CHOWDHERY, Aakanksha; NARANG, Sharan; DEVLIN, Jacob et al. PaLM: Scaling Language Modeling with Pathways. arXiv:2204.02311, 2022.

11 BUBECK, Sébastien; CHANDRA, Varun; ELDAN, Ronen et al. Sparks of Artificial General Intelligence: Early experiments with GPT-4. arXiv:2303.12712, 2023.

12 OPENAI. GPT-4 Technical Report. arXiv:2303.08774, 2023.

13 NIST. Artificial Intelligence Risk Management Framework (AI RMF 1.0). National Institute of Standards and Technology, 2023.

14 ISO/IEC 23894:2023. Information technology — Artificial intelligence — Risk management. Genebra: ISO/IEC, 2023.

15 UNIÃO EUROPEIA. Artificial Intelligence Act (AI Act). Parlamento Europeu e Conselho da União Europeia, 2024.

16 ESTADOS UNIDOS. Executive Order 14110: Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence. The White House, 2023.

17 OPENAI. Preparedness Framework. San Francisco: OpenAI, 2023. Disponível em: https://openai.com. Acesso em: 08 ago. 2025.

18 ANTHROPIC. Responsible Scaling Policy. San Francisco: Anthropic, 2023. Disponível em: https://www.anthropic.com. Acesso em: 08 ago. 2025.

19 ARNOLD, Matthew; BELLAMY, Rachel K. E.; HIND, Michael et al. FactSheets: increasing trust in AI services through supplier’s declarations of conformity. IBM Journal of Research and Development, v. 63, n. 4/5, 2019.

20 NSCAI. Final Report. National Security Commission on Artificial Intelligence, 2021.

21 DARPA. Air Combat Evolution (ACE) Program. Defense Advanced Research Projects Agency, 2019. Disponível em: https://www.darpa.mil. Acesso em: 08 ago. 2025.

22 DoD. Project Maven. U.S. Department of Defense, 2017. Disponível em: https://www.defense.gov. Acesso em: 08 ago. 2025.

23 UK GOVERNMENT. The Bletchley Declaration. 2023. Disponível em: https://www.gov.uk. Acesso em: 08 ago. 2025.

24 GOMES, Maiquel. Portal pessoal e análises sobre transformação digital e governança. Disponível em: https://maiquelgomes.com.br. Acesso em: 08 ago. 2025.

25 MIT TECHNOLOGY REVIEW. Inside the race to control open-source AI. Cambridge, MA: MIT Press, 2023. Disponível em: https://www.technologyreview.com. Acesso em: 08 ago. 2025.

26 SHEVLANE, Toby; HO, A.; HENDRYCKS, D. et al. Model evaluation for extreme risks. San Francisco: Anthropic, 2023.

27 HERNÁNDEZ SAMPIERI, Roberto; FERNÁNDEZ COLLADO, Carlos; BAPTISTA LUCIO, Pilar. Metodologia de Pesquisa. México: McGraw-Hill, 2013.

28 BOSTROM, Nick. Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press, 2014.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *