Introdução
Um experimento recente documentado por pesquisadores e analisado por terceiros indica que modelos de linguagem avançados — notadamente uma instância baseada em GPT‑5.2 — conseguiram gerar exploits funcionais contra uma vulnerabilidade inédita no interpretador QuickJS em testes controlados.
O que foi realizado
O pesquisador Sean Heelan testou dois agentes baseados em LLMs (GPT‑5.2 e Opus 4.5) com o objetivo de desenvolver exploits para um bug zero‑day no QuickJS. Os sistemas foram submetidos a múltiplos desafios que simulavam proteções modernas (ASLR, NX, RELRO, CFI fino, shadow stack, seccomp) e ambientes com funcionalidades reduzidas.
Resultados técnicos
- GPT‑5.2 completou todos os desafios propostos; Opus 4.5 falhou em dois cenários mais complexos.
- Ao todo, os agentes produziram mais de 40 exploits distintos em seis configurações diferentes, cobrindo desde spawn de shell até escrita específica de arquivos em disco sob restrições severas.
- O caso mais sofisticado contou com uma solução que encadeou sete chamadas de função através do handler de saída do glibc para obter capacidade de escrita em arquivo, contornando o shadow stack e restrições de sandbox.
Custo e tempo
Os testes não demandaram recursos proibitivos: cenários padrão consumiram cerca de 30 milhões de tokens (estimativa de custo em torno de US$30 por tentativa), enquanto a solução mais complexa consumiu ~50 milhões de tokens e pouco mais de três horas de processamento. Os autores destacam que isso torna a geração automatizada de exploits economicamente viável em escala para atores com orçamento computacional.
Limites e contexto
Os testes foram realizados contra o QuickJS, um interpretador relativamente menos complexo que navegadores de produção como Chrome ou Firefox. Os organizadores do experimento observam que os exploits criados não inovaram em mecanismos de quebra de proteção; em vez disso, exploraram lacunas e limitações já conhecidas — uma diferença importante que modera, até certo ponto, conclusões alarmistas.
Implicações
Para equipes de segurança ofensiva e defensiva, o estudo sinaliza duas tendências relevantes: (1) a automação da engenharia de exploits pode reduzir a barreira de entrada técnica, deslocando o fator limitante para recursos computacionais e orçamentos de token; (2) o ciclo de criação e teste de exploits pode acelerar, exigindo processos de hardening e validação mais automatizados nas cadeias de desenvolvimento e nas ferramentas de análise de código.
O que não foi respondido
O experimento não demonstra que modelos LLM já conseguem, sem supervisão humana adicional, comprometer ambientes complexos em produção de forma generalizada. Também falta evidência pública de aplicações práticas em alvos de larga escala (navegadores comerciais, sistemas operacionais mainstream) no contexto testado.
Conclusão
O estudo é um alerta técnico: modelos de linguagem de ponta ampliam capacidades em tarefas de exploração, tornando viável a produção automatizada de exploits em ambientes controlados. Organizações de segurança devem priorizar automação na validação de proteções, acelerar processos de mitigação e reavaliar riscos considerando que expertise humana pode ser substituída por capital computacional em certos fluxos de trabalho ofensivos.