Pentágono enfrenta desafios de segurança em IA para guerra autônoma
Pentágono enfrenta desafios de segurança em IA para guerra autônoma, destacando riscos de adversarial machine learning e necessidade de governança robusta.
7 notícia(s) relacionada(s).
Reunimos nesta página as publicações do Hack Alerta relacionadas a etica.
Pentágono enfrenta desafios de segurança em IA para guerra autônoma, destacando riscos de adversarial machine learning e necessidade de governança robusta.
OpenAI suspende por tempo indeterminado planos de lançar chatbot de conteúdo sexual explícito. Decisão ocorre diante de preocupações com riscos sociais, imagem e regulação.
A inteligência artificial transforma a liderança, exigindo novos perfis que equilibrem tecnologia e responsabilidade humana. Governança, regulação e formação são pilares para o futuro.
Trabalhadoras do OnlyFans relatam exploração em plataformas de conteúdo adulto, com agências pagando menos de US$ 2 por hora.
O Comando Central dos EUA usou o modelo de IA Claude da Anthropic em operações militares contra o Irã e na captura de Nicolás Maduro, revela o Wall Street Journal. A revelação ocorre em meio a um conflito público entre o governo Trump e a empresa, que se recusa a permitir o uso irrestrito de sua tecnologia para vigilância em massa ou armas autônomas letais.
Reportagem do G1 descreve como igrejas e líderes religiosos têm incorporado IA — de GPTs que geram materiais a avatares em confessionários — e discute riscos como imprecisões factuais, dilemas éticos e possíveis danos psicológicos ligados ao uso de chatbots.
Relatos do Bleeping Computer indicam que a OpenAI estuda um formato chamado “sponsored content” que poderia ser priorizado nas respostas do ChatGPT, potencialmente influenciando decisões de compra. A reportagem não traz confirmação oficial nem detalhes sobre mecânica, sinalização ou controles de privacidade, o que levanta questões de transparência, riscos de engenharia social e possíveis implicações regulatórias como a LGPD caso alcance usuários