Hack Alerta

Bugs críticos em frameworks de inference AI expõem Meta, Nvidia e Microsoft

Pesquisadores identificaram vulnerabilidades críticas de execução remota de código em motores de inference de IA usados por Meta, Nvidia, Microsoft e projetos PyTorch como vLLM e SGLang. O problema foi atribuído ao uso inseguro de ZeroMQ combinado com desserialização via pickle, mas as fontes não detalham CVEs, versões afetadas ou mitigação oficial.

Pesquisadores alertaram sobre falhas de execução remota de código (RCE) em motores de inference de IA usados por grandes fornecedores e projetos open-source, criando risco direto para aplicações que executam modelos em produção.

Descoberta e escopo

Relatos indicam a presença de vulnerabilidades críticas em vários frameworks de inference de IA, afetando implementações de fabricantes como Meta, Nvidia e Microsoft, além de projetos open-source ligados ao ecossistema PyTorch, citados como vLLM e SGLang. As falhas foram descritas como capazes de levar a execução remota de código em sistemas que usem as implementações vulneráveis.

Abordagem técnica

Segundo o relatório reproduzido pela fonte, as vulnerabilidades têm uma causa comum: o uso inseguro de ZeroMQ (ZMQ) combinado com a desserialização via pickle do Python. Em palavras dos pesquisadores:

“These vulnerabilities all traced back to the same root cause: the overlooked unsafe use of ZeroMQ (ZMQ) and Python's pickle deserialization,”
o que sugere que o vetor explora objetos desserializados por pickle recebidos via canal ZMQ.

Impacto e alcance

O conjunto de produtos e projetos mencionados — fornecedores comerciais e bibliotecas open-source para serving/inference de modelos — indica potencial impacto amplo, pois muitos ambientes de produção utilizam essas pilhas para hospedar modelos de linguagem e outras cargas de IA. A natureza RCE da falha implica que, se explorada, um atacante poderia executar código arbitrário no host que processa inferências.

Mitigações e informações faltantes

As fontes não trazem detalhes sobre CVEs específicos, versões afetadas, ou atualizações/patches publicados pelos fornecedores. Também não há na matéria divulgação de mitigação técnica recomendada (por exemplo, configurações seguras de ZMQ, alternativas à desserialização com pickle ou regras de isolamento). As informações disponíveis limitam-se a apontar a raiz do problema (ZMQ + pickle) e a lista de projetos/fornecedores impactados.

Limites das informações

  • Não há referência a identificadores de vulnerabilidade (CVE) na cobertura consultada.
  • Não são reportados números de incidentes, contagens de sistemas afetados, ou evidências públicas de exploração ativa.
  • Fontes não detalham se as falhas já foram divulgadas aos fornecedores e se há correções em andamento.

O que profissionais de segurança devem considerar agora

Organizações que executam serviços de inference baseados em PyTorch ou em frameworks de Meta, Nvidia e Microsoft devem revisar imediatamente integrações que usem ZeroMQ e qualquer ponto que realize desserialização com pickle. Em ambientes onde a desserialização de objetos Python é necessária, recomenda-se avaliar alternativas seguras (por exemplo, formatos serializados seguros ou validação rigorosa do conteúdo) e reforçar isolamento dos processos de inference até que fornecedores publiquem orientações oficiais.

Repercussão e próximos passos

A matéria consultada chama atenção para um vetor de risco relativamente simples — desserialização insegura via canais de mensageria — aplicado a componentes críticos do ecossistema de IA. Resta aguardar comunicados técnicos e advisories oficiais dos fabricantes e dos mantedores dos projetos open-source para ações corretivas e identificação precisa das versões afetadas. As fontes não fornecem prazo ou roteiro de correção.

Fontes: The Hacker News.


Baseado em publicação original de The Hacker News
Publicado pela Redação Hack Alerta com base em fontes externas citadas e monitoramento editorial do Hack Alerta. Para decisões técnicas, operacionais ou jurídicas, confirme sempre os detalhes na fonte original.