Falha crítica no LMDeploy é explorada em menos de 13 horas após divulgação pública
Falha SSRF no LMDeploy é explorada em menos de 13 horas. CVE-2026-33626 afeta ferramentas de IA e exige atualização urgente.
21 notícia(s) relacionada(s).
Reunimos nesta página as publicações do Hack Alerta relacionadas a ai-security.
Falha SSRF no LMDeploy é explorada em menos de 13 horas. CVE-2026-33626 afeta ferramentas de IA e exige atualização urgente.
Campanha Bissa Scanner explora falha React2Shell no Next.js, usando bots do Telegram e IA para roubar credenciais de mais de 900 empresas globalmente.
Pesquisadores da Expel descobriram um novo ataque chamado "Prompt Poaching", onde extensões maliciosas de navegador roubam conversas de IA sensíveis sem consentimento do usuário.
O Augustus, da Praetorian, é um scanner open‑source em binário Go que automatiza mais de 210 ataques adversariais contra 28 provedores de LLM. Projetado para integração em pentests e CI/CD, traz paralelismo por goroutines, sistema "Buff" para transformar probes e exportação em JSON/HTML. A iniciativa facilita testes operacionais de segurança em modelos de IA.
Databricks lançou o BlackIce, uma imagem Docker LTS que consolida 14 ferramentas open‑source para testes e red‑teaming de modelos de IA. A iniciativa busca reduzir conflitos de dependência e incluir integração pronta com endpoints de Model Serving do Databricks, com mapeamento para MITRE ATLAS e Databricks AI Security Framework (DASF).
MEDUSA é um scanner SAST open-source com 74 scanners e 180+ regras focadas em riscos de agentes de IA. Suporta 42+ linguagens, relatórios SARIF/JSON e filtro inteligente para reduzir falsos positivos. Publicação cita performance paralela e capacidades de detecção de CVEs, mas faltam auditorias independentes e métricas reproduzíveis.
Pesquisadores da XM Cyber demonstraram dois vetores em Vertex AI que permitem que usuários de baixa privilégio escalem para Service Agent roles, usando tool injection e acesso ao shell de head node em Ray. O ataque explora leitura de metadados para extrair tokens e acessar GCS, BigQuery e memórias de LLM. Recomendações: restringir roles, desabilitar shells interativos e monitorar acessos a metadados.
AURA é um framework que protege knowledge graphs usados em GraphRAG através da injeção de triplas falsas plausíveis (adulterants) para tornar cópias roubadas inúteis, preservando utilidade para usuários autorizados via metadata encriptada.
Análise do Cyber Security News consolida as dez vulnerabilidades de maior risco em 2025, combinando severidade crítica e evidência de exploração ativa (KEV/CISA), com destaque para Langflow, SharePoint, FortiWeb, React Server Components e MongoBleed.
Pesquisa da Checkmarx demonstra 'Lies‑in‑the‑Loop', técnica que forja diálogos HITL em assistentes de código (Claude Code, Copilot Chat) para induzir RCE. Recomendações incluem isolamento, validação de payloads e exibição do código bruto antes de aprovação.