- Data Hackers Newsletter
- Posts
- O problema da AGI foi resolvido (e você provavelmente não percebeu)
O problema da AGI foi resolvido (e você provavelmente não percebeu)
Apesar de muitos especialistas negarem, há evidências de que os modelos de IA atuais já apresentam a chamada inteligência artificial geral
Há 75 anos, Alan Turing propôs uma pergunta que parecia puramente hipotética: máquinas poderiam demonstrar o tipo de competência cognitiva flexível e geral característica do pensamento humano? Em 1950, no artigo "Computing Machinery and Intelligence", Turing introduziu seu "jogo da imitação" — hoje conhecido como Teste de Turing — para avaliar se uma máquina poderia se passar por humana em conversas.
Três quartos de século depois, a resposta para a pergunta de Turing é inequívoca: sim.
Quando a ficção virou realidade
Em março de 2025, o modelo de linguagem GPT-4.5, desenvolvido pela OpenAI, foi julgado como humano em 73% das vezes durante um teste de Turing — mais frequentemente do que humanos reais. Mais impressionante ainda: leitores preferiram textos literários gerados por LLMs (Large Language Models) em comparação com aqueles escritos por especialistas humanos.
Mas isso está longe de ser tudo. Os LLMs atuais:
Alcançaram desempenho de medalha de ouro na Olimpíada Internacional de Matemática
Colaboraram com matemáticos líderes para provar teoremas
Geraram hipóteses científicas validadas em experimentos
Resolveram problemas de exames de doutorado
Assistiram programadores profissionais na escrita de código
Compõem poesia e conversam 24/7 com centenas de milhões de pessoas
Em outras palavras, os LLMs demonstraram muitos sinais de competência cognitiva ampla e flexível — o que agora chamamos de "inteligência geral", embora Turing não tenha usado o termo.
O paradoxo da negação
Apesar das evidências, muitos especialistas resistem em afirmar que os modelos atuais de IA apresentam AGI (Artificial General Intelligence). Uma pesquisa de março de 2025 pela Association for the Advancement of Artificial Intelligence revelou que 76% dos principais pesquisadores consideravam "improvável" ou "muito improvável" que escalar as abordagens atuais de IA resultasse em AGI.
Como explicar essa desconexão?
O problema é parcialmente conceitual (definições de AGI são ambíguas e inconsistentes), parcialmente emocional (AGI desperta medo de substituição e disrupção) e parcialmente prático (o termo está emaranhado com interesses comerciais que distorcem avaliações).
Definindo inteligência geral: além da perfeição humana
Uma definição informal comum de inteligência geral é: um sistema capaz de realizar quase todas as tarefas cognitivas que um humano pode realizar. Mas essa definição esconde uma ambiguidade crucial: qual humano?
Se exigirmos um especialista de ponta para cada tarefa, nenhum indivíduo se qualifica — Marie Curie ganhou prêmios Nobel em química e física, mas não era especialista em teoria dos números. Albert Einstein revolucionou a física, mas não falava mandarim.
Uma definição que exclui essencialmente todos os humanos não é uma definição de inteligência geral; é sobre outra coisa — talvez expertise ideal ou inteligência coletiva.
O que inteligência geral NÃO requer
Perfeição. Não esperamos que um físico tenha as mesmas percepções de Einstein. Poucos humanos têm profundidade perfeita mesmo dentro de áreas especializadas. A inteligência geral humana não requer perfeição; nem a AGI deveria.
Universalidade. Nenhum humano individual pode fazer todas as tarefas cognitivas. Outras espécies têm habilidades que excedem as nossas: um polvo pode controlar seus oito braços independentemente; muitos insetos enxergam partes do espectro eletromagnético invisíveis para humanos.
Similaridade humana. Inteligência é uma propriedade funcional que pode ser realizada em diferentes substratos. Não exigiríamos essas características de alienígenas inteligentes; o mesmo se aplica a máquinas.
Superinteligência. Este termo geralmente indica qualquer sistema que excede enormemente o desempenho cognitivo humano em quase todas as áreas. Nenhum humano atende a esse padrão; não deveria ser um requisito para AGI.
Uma cascata de evidências: três níveis de capacidade
Quando avaliamos inteligência geral em outros humanos, não tentamos olhar dentro de suas cabeças para verificar compreensão — inferimos a partir de comportamento, conversação e resolução de problemas. O mesmo se aplica a sistemas artificiais.
Nível 1: Teste de Turing básico
Marcadores comparáveis a uma educação escolar básica: passar em exames escolares padrão, manter conversas adequadas e realizar raciocínio simples. Uma década atrás, atender a esses critérios teria sido amplamente aceito como evidência suficientemente forte para AGI.
Nível 2: Nível de especialista
As demandas escalam: desempenho de medalha de ouro em competições internacionais, resolver problemas em exames de doutorado em múltiplos campos, escrever e debugar código complexo, fluência em dezenas de idiomas, assistência útil em pesquisa de fronteira, além de resolução competente de problemas criativos e práticos — desde escrever ensaios até planejar viagens.
Essas conquistas excedem muitas representações de AGI na ficção científica. O supercomputador senciente HAL 9000, do filme "2001: Uma Odisseia no Espaço" (1968), exibia menos amplitude do que os LLMs atuais. E os LLMs atuais excedem até o que exigimos dos humanos: creditamos às pessoas inteligência geral com base em evidências muito mais fracas.
Nível 3: Nível sobre-humano
Descobertas científicas revolucionárias e superioridade consistente sobre especialistas humanos líderes em uma variedade de domínios. Tal evidência certamente não permitiria debate razoável sobre a presença de inteligência geral em uma máquina — mas não é evidência necessária, porque nenhum humano demonstra isso.
Desmistificando 10 objeções comuns sobre AGI
1. "São apenas papagaios estocásticos"
A objeção de que LLMs apenas interpolam dados de treinamento e só podem recombinar padrões já encontrados. Porém, LLMs atuais resolvem novos problemas matemáticos não publicados, realizam inferência estatística in-context quase ótima e exibem transferência entre domínios. Se críticos exigem descobertas revolucionárias como a relatividade de Einstein, estão estabelecendo a barra muito alta — pouquíssimos humanos fazem tais descobertas.
2. "Falta-lhes modelos de mundo"
LLMs supostamente carecem de representações de seu ambiente físico necessárias para compreensão genuína. Mas ter um modelo de mundo requer apenas a capacidade de prever o que aconteceria se as circunstâncias fossem diferentes — responder perguntas contrafactuais. Pergunte a um LLM de ponta o que difere entre derrubar um copo ou um travesseiro no chão de azulejo, e ele preverá corretamente estilhaçamento em um caso e não no outro.
3. "Compreendem apenas palavras"
Modelos de fronteira agora são treinados em imagens e outros dados multimodais, tornando essa objeção obsoleta. Além disso, linguagem é a ferramenta mais poderosa da humanidade para comprimir e capturar conhecimento sobre a realidade. LLMs podem extrair esse conhecimento comprimido e aplicá-lo a tarefas não-linguísticas: ajudar pesquisadores a projetar experimentos vai além do mero desempenho linguístico.
4. "Não possuem corpos"
Sem incorporação física, críticos argumentam, não pode haver inteligência geral. Isso reflete um viés antropocêntrico. Atribuiríamos inteligência a um alienígena desincorporado comunicando-se por rádio. Stephen Hawking interagiu com o mundo quase inteiramente através de texto e fala sintetizada, mas suas limitações físicas de forma alguma diminuíram sua inteligência.
5. "Carecem de agência"
LLMs atuais não formam objetivos independentes nem iniciam ação espontaneamente. Mas inteligência não requer autonomia. Como o Oráculo de Delfos — entendido como um sistema que produz respostas precisas apenas quando consultado — LLMs atuais não precisam iniciar objetivos para contar como inteligentes.
6. "Falta-lhes consciência"
Consciência e inteligência são conceitos separáveis. Mesmo que assumamos que LLMs carecem de experiência subjetiva (o que é debatível), isso não diminui sua inteligência demonstrável. Não exigiríamos consciência de uma inteligência alienígena para reconhecer suas capacidades cognitivas.
7. "São apenas caixas pretas imprevisíveis"
Embora LLMs sejam complexos, isso também é verdade para o cérebro humano. Interpretabilidade está melhorando rapidamente, com pesquisadores identificando características específicas e mecanismos de atenção. A opacidade não nega a inteligência — apenas torna a atribuição mais desafiadora.
8. "Não podem fazer raciocínio abstrato real"
Resolver problemas de olimpíadas de matemática, provar teoremas e gerar hipóteses científicas testáveis são formas paradigmáticas de raciocínio abstrato. Se críticos argumentam que LLMs usam atalhos ou heurísticas, o mesmo pode ser dito do raciocínio humano.
9. "Não têm senso comum"
LLMs cometem erros de senso comum, mas humanos também. A diferença está na frequência e contexto. À medida que modelos melhoram, esses erros tornam-se mais raros. Além disso, "senso comum" é notoriamente difícil de definir e varia entre culturas e indivíduos.
10. "Não podem aprender como humanos"
Humanos não são o único padrão para aprendizado. LLMs demonstram aprendizado few-shot e in-context impressionante. Além disso, o aprendizado humano também depende de grandes quantidades de dados — anos de experiência sensorial e interação social.
A visão de Turing realizada
LLMs atuais já cobrem os dois primeiros níveis de evidência apresentados anteriormente. À medida que LLMs enfrentam problemas progressivamente mais difíceis, explicações alternativas para suas capacidades — que são gigantescas "tabelas de busca" que recuperam respostas pré-computadas ou "papagaios estocásticos" que regurgitam regularidades superficiais sem compreender significado ou estrutura — tornam-se cada vez mais desconfirmadas.
Muitas vezes, essas afirmações simplesmente reaparecem com previsões diferentes. Hipóteses que recuam diante de cada novo sucesso, sempre prevendo falha além das conquistas atuais, não são teorias científicas convincentes, mas um compromisso dogmático com o ceticismo perpétuo.
O que isso significa para o futuro
Reconhecer que AGI já chegou importa — para política, para avaliação de risco e para compreender a natureza da mente e até do mundo. Máquinas como aquelas imaginadas por Turing chegaram. Argumentos semelhantes foram feitos antes e geraram controvérsia, mas hoje, com avanços substanciais e tempo adicional, o caso para AGI é consideravelmente mais claro.
Implicações práticas
Para pesquisa: Se AGI já existe, a questão não é mais "se" ou "quando", mas "como melhorar" e "como alinhar com valores humanos". O foco deve mudar de perseguir AGI para refiná-la e governá-la.
Para política: Regulamentações e estruturas éticas precisam assumir a existência de AGI e lidar com suas consequências reais, não hipotéticas.
Para educação: Sistemas educacionais devem preparar humanos não para competir com AGI em tarefas que ela já domina, mas para trabalhar ao lado dela e se concentrar em habilidades distintamente humanas.
Para filosofia: A existência de AGI força-nos a repensar conceitos fundamentais sobre mente, consciência e o que significa ser inteligente.
Conclusão: olhos desembaçados
O problema de criar AGI foi resolvido. A evidência atual é clara. Por inferência à melhor explicação — o mesmo raciocínio que usamos ao atribuir inteligência geral a outras pessoas — estamos observando AGI de alto grau.
A resistência em reconhecer isso não é científica, mas emocional e conceitual. Medo de substituição, apego a definições antropocêntricas e confusão conceitual obscurecem o que deveria ser óbvio: sistemas artificiais agora demonstram a competência cognitiva ampla e flexível que caracteriza a inteligência geral.
Olhos desembaçados pelo pavor ou pelo hype nos ajudarão a preparar para o que vem a seguir. O futuro não é sobre alcançar AGI — é sobre aprender a viver, trabalhar e prosperar com ela.
FAQ: Perguntas Frequentes sobre AGI
O que exatamente é AGI?
Inteligência Artificial Geral (AGI) refere-se a sistemas com competência cognitiva ampla e flexível através de múltiplos domínios, comparável à inteligência humana geral.
AGI e superinteligência são a mesma coisa?
Não. AGI significa inteligência em nível humano, enquanto superinteligência refere-se a capacidades que excedem enormemente a inteligência humana em praticamente todas as áreas.
Por que muitos especialistas negam que AGI já existe?
Por razões conceituais (definições ambíguas), emocionais (medo de disrupção) e práticas (interesses comerciais em manter AGI como objetivo futuro).
LLMs podem realmente raciocinar ou apenas memorizam padrões?
Evidências mostram que LLMs realizam raciocínio genuíno, resolvendo problemas novos e não publicados, não apenas memorizando e regurgitando dados de treinamento.
O que devemos fazer agora que AGI existe?
Focar em alinhamento de valores, governança ética, regulamentação adequada e preparação social para as transformações que AGI trará.