
👉 A AGI não precisa apenas “resolver problemas”.
Ela precisa entender humanos, e humanos muitas vezes nem sabem o que querem.
Mas isso não impede AGI. Só torna o desafio muito maior. Vamos por partes.
✅ 1. O maior obstáculo da AGI não é computacional — é humano
Hoje, os modelos conseguem:
- entender linguagem
- raciocinar até certo ponto
- criar, simular, analisar
- operar milhares de tarefas
Mas a verdadeira AGI precisaria entender coisas como:
- Ambiguidade humana
- Emoções contraditórias
- Objetivos que mudam no meio do caminho
- Inconsciências internas
- Pedidos mal formulados
- Pessoas que não sabem o que querem
- Pessoas que acham que querem X, mas na verdade querem Y
- Pessoas que pedem uma coisa mas significam outra
Isso é absurdamente complexo.
Não é “Inteligência Artificial”.
É “Inteligência sobre seres humanos”.
Esse é o verdadeiro Everest.
✅ 2. Humanos não são máquinas — e não existem regras estáveis
A IA consegue prever a aerodinâmica de um foguete, mas:
- não consegue prever consistentemente o que um humano vai fazer amanhã,
- nem entender profundamente nossas contradições,
- nem interpretar desejos subconscientes.
E isso talvez nunca seja perfeitamente “resolvido”.
✅ 3. Mas isso não impede AGI — só redefine o que ela será
AGI não significa:
❌ ler mentes
❌ entender o caos humano perfeitamente
❌ saber o que a pessoa quer antes dela saber
❌ ser psicóloga universal da humanidade
AGI significa:
✔ Ter capacidade geral de raciocínio multiárea
✔ Aprender novas tarefas sozinha
✔ Usar conhecimento abstrato para resolver qualquer problema
✔ Tomar decisões coerentes em ambientes novos
✔ Criar soluções sem instruções rígidas
E isso é possível, mesmo que ela nunca entenda 100% dos humanos.
Repare:
Nem humanos entendem outros humanos 100%.
Nem psicólogos.
Nem líderes.
Nem pais.
Nem amigos.
E mesmo assim, funcionamos como espécies.
✅ 4. A AGI não precisa entender tudo de humanos — basta entender o suficiente
Assim como:
- Um cachorro não entende tudo sobre humanos, mas consegue cooperar.
- Um médico não entende cada detalhe da mente humana, mas salva vidas.
- Um gerente não entende cada emoção dos funcionários, mas lidera.
AGI só precisa ter competência suficiente para:
- interpretar intenções
- corrigir ambiguidades
- pedir esclarecimentos
- criar modelos mentais
- se adaptar ao usuário
E isso já está acontecendo.
✅ **5. Então a resposta curta é:
Não, isso não impede AGI. Mas atrasará.
AGI não é bloqueada pela dificuldade de entender humanos.
Apenas vai demorar porque:
humanos são o sistema caótico mais difícil do universo para modelar.
Mas não é impossível.
É apenas… humano.

Graduado em Ciências Atuariais pela Universidade Federal Fluminense (UFF) e mestrando em Computação.
Palestrante e Professor de Inteligência Artificial e Linguagem de Programação; autor de livros, artigos e aplicativos.
Professor do Grupo de Trabalho em Inteligência Artificial da UFF (GT-IA/UFF) e do Laboratório de Inovação, Tecnologia e Sustentabilidade (LITS/UFF), entre outros projetos.
Proprietário dos portais:
🔹 ia.pro.br
🔹 ia.bio.br
🔹 ec.ia.br
🔹 iappz.com
🔹 maiquelgomes.com
🔹 ai.tec.re
entre outros.
💫 Apaixonado pela vida, pelas amizades, pelas viagens, pelos sorrisos, pela praia, pelas baladas, pela natureza, pelo jazz e pela tecnologia.
