A OpenAI começou a disponibilizar globalmente o plano ChatGPT Go por US$8 por mês, incluindo suporte a anúncios no nível gratuito e no Go, mudança que gera alertas de privacidade e segurança para equipes de TI e proteção de dados.
O que muda
ChatGPT Go oferece acesso ao modelo GPT‑5.2 Instant e será suportado por publicidade. Segundo a cobertura, planos pagos superiores (Plus, Pro, Business/Enterprise) permanecem sem anúncios e oferecem opções de tratamento de dados diferentes, inclusive controles contratuais em níveis corporativos.
Riscos operacionais e de privacidade
O artigo destaca dois vetores de preocupação principais:
- Exposição de conversas: quando anúncios entram na equação, dados de conversação, padrões de uso e conteúdos potencialmente sensíveis podem alimentar algoritmos de direcionamento publicitário;
- Contaminação cruzada: funcionários que usam contas pessoais Go ou gratuitas para tarefas de trabalho podem introduzir produtos intelectuais e informações sensíveis em um ambiente sem garantias contratuais equivalentes às do Enterprise.
Recomendações para segurança corporativa
O texto sugere medidas concretas para equipes de segurança e conformidade:
- Atualizar políticas de uso aceitável (acceptable use) para proibir explicitamente ChatGPT Go e tiers gratuitos para atividades corporativas;
- Bloquear o acesso às tiers ad‑supported em redes corporativas ou via proxies, enquanto mantém caminhos aprovados para Plus/Pro/Enterprise;
- Monitorar tráfego e padrões que indiquem uso não autorizado de contas consumidoras em contextos profissionais;
- Setores com proteção de dados sensíveis (saúde, finanças, governo) devem tratar o Go como alto risco até que a OpenAI publique documentação detalhada sobre o tratamento de dados do ecossistema publicitário.
Observações finais
O lançamento de uma camada de produto com publicidade altera o ponto de controle para equipes de segurança: além do risco técnico de exposição, há um risco contratual e de governança de dados. A publicação cita que "a introdução de publicidade representa uma mudança crítica na arquitetura de tratamento de dados da OpenAI" e recomenda ação proativa de bloqueio/monitoramento em ambientes corporativos até esclarecimentos contratuais e técnicos adicionais.