Agentes de IA não são hype. São infraestrutura. E a pergunta certa é: quem define o que eles farão?

Por Marcel Souza
Estrategista de Inovação Pública e Digital
Fundador da Geração de Conteúdo
Em 1988, o Public Enemy avisava:
“Don’t believe the hype.”
Hoje, esse conselho soa mais atual do que nunca — mas por uma razão diferente.
A matéria da Época sobre os “agentes de IA” alerta para riscos reais: decisões sendo tomadas por sistemas autônomos, com pouca supervisão e quase nenhuma transparência.
Mas o erro é tratar isso como mais uma modinha de tecnologia.
Não estamos falando de hype. Estamos falando de infraestrutura invisível que já decide por você — no que você vê, compra, compartilha ou responde.
A questão não é se vamos usar agentes.
A pergunta é: com que valores, sob quais estruturas e a serviço de quem?
“O que antes era ferramenta, agora toma decisões.”
Sam Altman (OpenAI) e Satya Nadella (Microsoft) já deixaram claro: os agentes serão a nova interface de trabalho. Eles vão organizar a agenda, enviar e-mails, tomar decisões preditivas e, em breve, muito mais.
O problema é que isso não está sendo feito de forma coordenada, auditável ou transparente.
Um estudo recente do MIT e da Universidade Hebraica mostrou que entre 67 agentes mapeados:
menos de 20% divulgam políticas de segurança;
só 10% passaram por auditorias externas.
Estamos empilhando camadas de automação — mas sem trilhos de responsabilidade.
E isso, no mínimo, merece uma pausa lúcida.
Entre o medo e a aceleração, existe um caminho lúcido
“Com grande poder computacional vem grande responsabilidade organizacional.”
— Frase que ainda não existe, mas deveria.
Não precisamos abandonar a velocidade.
Mas precisamos parar de confundir pressa com direção.
Automatizar não significa abdicar. Delegar não é desaparecer.
E construir o novo não exige demolir o que funciona — exige entender o que deve ser preservado.
4 princípios que orientam nosso trabalho com IA aplicada
Na GC, ajudamos empresas e instituições públicas a implantarem agentes inteligentes com impacto real e responsabilidade. Os pilares são simples:
1. Clareza
Toda decisão automatizada precisa ser explicável.
Se o usuário não entende, o sistema falhou.
2. Autonomia proporcional
Agentes podem agir sozinhos — mas só até certo ponto.
Ações críticas exigem validação ou reversibilidade.
3. Modularidade
Agentes precisam ser isoláveis, auditáveis e substituíveis.
Evitamos “caixas-pretas” operacionais.
4. Impacto humano direto
Todo agente precisa servir a alguém real: um empreendedor, um cidadão, uma equipe.
Se não gera valor concreto, é ruído.
Não é sobre o que a IA pode fazer.
É sobre o que você ainda quer fazer com ela.
Margaret Mitchell (ex-Google, IA Ethics) escreveu:
“O maior erro não está nos agentes. Está na nossa decisão de deixá-los agir sem nos perguntar.”
Essa frase me acompanhou nos últimos meses — enquanto construo soluções com IA que resolvem, escutam e respeitam o tempo humano.
Porque no fim, o progresso só vale a pena se a gente ainda estiver aqui para decidir o que vale a pena.
Gil Scott-Heron escreveu que “a revolução não será televisionada.” Hoje, talvez ela nem seja percebida.
Porque não é feita em praças. É feita em sistemas, servidores, prompts e decisões que não passam pela sua aprovação.
Por isso, sigo trabalhando com empreendedores reais, com tecnologia que resolve, e com estruturas que respeitam o tempo e a inteligência humana.
E por isso acredito:
Se a revolução não será televisionada — então que pelo menos ela seja auditável.
Se você trabalha com inovação, desenvolvimento local ou projetos com ambição e responsabilidade — me acompanhe por aqui.
Ou fale com a Geração de Conteúdo para colocar inteligência real no que você constrói.




