Ray Poynter, 24 de julho de 2025
O novo modo de agente do ChatGPT é outro grande salto adiante na maneira como a IA está avançando, especialmente no campo da computação agêntica. Também representa um nível de risco significativamente aumentado. Nesta postagem, descrevi o modo de agente, os riscos associados e forneço um exemplo simples.
Visão geral
O modo de agente do ChatGPT passa passivamente seguindo o comando do usuário para conduzir ativamente tarefas complexas. OpenAI inclui a descrição a seguir com o lançamento “Agora você pode pedir ao ChatGPT para lidar com solicitações como “Veja meu calendário e me informe sobre as próximas reuniões de clientes com base em notícias recentes”, “planeje e compre ingredientes para fazer café da manhã japonês para quatro” e “analisar três concorrentes e criar um deck de slides”. O ChatGPT navegará de maneira inteligente sites, filtrará os resultados, solicitará que você faça login com segurança quando necessário, execute o código, conduza análises e até entregue apresentações de slides e planilhas editáveis que resumem suas descobertas. ”
Isso significa que pode:
- Navegue sites, preencha os formulários e analise dados.
- Interaja com aplicativos conectados (como Gmail, Google Drive e GitHub) via conectores.
- Automatize fluxos de trabalho, como planejamento de reuniões, compras e criação de apresentações ou planilhas.
- Alterne entre raciocínio, pesquisa, ação e execução de código – tudo a partir das instruções do usuário em linguagem natural
Atualmente, o acesso está disponível apenas para contas pagas e não é acessível em todas as regiões, como a UE.
Preocupações de segurança
O OpenAI sinalizou uma ampla gama de preocupações de segurança e privacidade, incluindo:
- Ataques de injeção imediata. O modo de agente pode ser exposto ao conteúdo da Web malicioso que oculta avisos prejudiciais em elementos invisíveis ou metadados do site. Se enganado por esses ataques, o agente pode vazar dados privados ou realizar ações não autorizadas – especialmente em sites ou aplicativos em que o usuário está conectado.
- Autonomia e acesso excessivos. O ChatGPT Agent atua com os mesmos privilégios de acesso que o usuário. Ele pode executar ações irreversíveis nas plataformas em que você faz login. Existem meios técnicos limitados para restringir seu acesso uma vez autorizado.
- Falta de controles de acesso diferencial. Atualmente, não há como conceder as permissões reduzidas de IA em comparação com o usuário real; Permissões e uso de credenciais são idênticos.
- Lacunas de auditabilidade e responsabilidade. As ações executadas pelo modo agente são quase indistinguíveis das do usuário nos logs de auditoria do sistema. Isso pode complicar a conformidade, rastreamento e investigação em caso de violação.
- Exposição de memória e dados. O agente pode armazenar ou expor inadvertidamente dados comerciais confidenciais de documentos, e -mails e serviços conectados se o contexto não for muito escopo.
- Alucinações e falhas de IA. Erros na interpretação ou execução de tarefas podem levar a ações não intencionais que estão sendo executadas com consequências do mundo real.
Um exemplo
Aqui está um exemplo simples (relativamente seguro) de usar o modo de agente.
Após o lançamento do ChatGPT, selecionei o modo agente no menu suspenso Tools.

Então eu dei o aviso “Vá para o site da ResearchWiseai e encontre os podcasts do Talkingai. Crie uma planilha listando todos os podcasts, sua data, sua duração, o título, os hóspedes, o URL e um resumo de 100 palavras do conteúdo. Faça o download da planilha como um arquivo do Excel”.
Funcionou por 9 minutos e produziu uma visão on -line da planilha.

Eu baixei o arquivo como um arquivo do Excel; Se você quiser visualizá -lo, Clique aqui para acessar isto como uma folha do Google.
Esse processo levou 9 minutos e entregou algo que eu pretendia fazer por várias semanas, compilando uma lista simples dos podcasts de IA falantes.
O que vem a seguir?
Vou começar a usar esse modo. Eu posso ver como ele acelerará muitas das minhas tarefas regulares. No entanto, ficarei atento aos problemas de segurança. Se quisermos usar agentes e que queremos que os agentes possam usar agentes, precisamos ceder algum controle. O ‘humano no loop’ não é mais possível; portanto, como o humano supervisiona o processo para manter os padrões e valores essenciais?
Eu acho que meus usos iniciais estarão no campo da documentação. Preparando minhas listas de blogs, artigos, etc. Posso ver que o usarei como uma forma aprimorada de pesquisa profunda, para me ajudar a reunir informações para pesquisas e projetos. Quando estou confiante o suficiente sobre sua segurança, provavelmente o arrumarei para arrumar meus e -mails anteriores, minhas estruturas de arquivos e meus projetos. Mas acho que vai demorar um bom tempo antes de pedir para ficar on -line e comprar algo para mim.
Quer aprender mais sobre agentes?

Estou hospedando um webinar sobre como começar a usar agentes, com exemplos que você pode criar usando ChatGPT, Copilot, Glaude e Gêmeos.
Quarta -feira, 30 de julho de 2025
Time de transmissão 15:00 LONDRES (10h de Nova York, 9h Chicago)
Clique aqui para se registrar