Pesquisadores alertaram sobre falhas de execução remota de código (RCE) em motores de inference de IA usados por grandes fornecedores e projetos open-source, criando risco direto para aplicações que executam modelos em produção.
Descoberta e escopo
Relatos indicam a presença de vulnerabilidades críticas em vários frameworks de inference de IA, afetando implementações de fabricantes como Meta, Nvidia e Microsoft, além de projetos open-source ligados ao ecossistema PyTorch, citados como vLLM e SGLang. As falhas foram descritas como capazes de levar a execução remota de código em sistemas que usem as implementações vulneráveis.
Abordagem técnica
Segundo o relatório reproduzido pela fonte, as vulnerabilidades têm uma causa comum: o uso inseguro de ZeroMQ (ZMQ) combinado com a desserialização via pickle do Python. Em palavras dos pesquisadores:
“These vulnerabilities all traced back to the same root cause: the overlooked unsafe use of ZeroMQ (ZMQ) and Python's pickle deserialization,”o que sugere que o vetor explora objetos desserializados por pickle recebidos via canal ZMQ.
Impacto e alcance
O conjunto de produtos e projetos mencionados — fornecedores comerciais e bibliotecas open-source para serving/inference de modelos — indica potencial impacto amplo, pois muitos ambientes de produção utilizam essas pilhas para hospedar modelos de linguagem e outras cargas de IA. A natureza RCE da falha implica que, se explorada, um atacante poderia executar código arbitrário no host que processa inferências.
Mitigações e informações faltantes
As fontes não trazem detalhes sobre CVEs específicos, versões afetadas, ou atualizações/patches publicados pelos fornecedores. Também não há na matéria divulgação de mitigação técnica recomendada (por exemplo, configurações seguras de ZMQ, alternativas à desserialização com pickle ou regras de isolamento). As informações disponíveis limitam-se a apontar a raiz do problema (ZMQ + pickle) e a lista de projetos/fornecedores impactados.
Limites das informações
- Não há referência a identificadores de vulnerabilidade (CVE) na cobertura consultada.
- Não são reportados números de incidentes, contagens de sistemas afetados, ou evidências públicas de exploração ativa.
- Fontes não detalham se as falhas já foram divulgadas aos fornecedores e se há correções em andamento.
O que profissionais de segurança devem considerar agora
Organizações que executam serviços de inference baseados em PyTorch ou em frameworks de Meta, Nvidia e Microsoft devem revisar imediatamente integrações que usem ZeroMQ e qualquer ponto que realize desserialização com pickle. Em ambientes onde a desserialização de objetos Python é necessária, recomenda-se avaliar alternativas seguras (por exemplo, formatos serializados seguros ou validação rigorosa do conteúdo) e reforçar isolamento dos processos de inference até que fornecedores publiquem orientações oficiais.
Repercussão e próximos passos
A matéria consultada chama atenção para um vetor de risco relativamente simples — desserialização insegura via canais de mensageria — aplicado a componentes críticos do ecossistema de IA. Resta aguardar comunicados técnicos e advisories oficiais dos fabricantes e dos mantedores dos projetos open-source para ações corretivas e identificação precisa das versões afetadas. As fontes não fornecem prazo ou roteiro de correção.
Fontes: The Hacker News.