Família processa OpenAI após crime brutal envolvendo mãe e filho
Tecnologia no centro de um crime real
A família de uma mulher assassinada nos Estados Unidos entrou com uma ação judicial contra a OpenAI, alegando que uma ferramenta de inteligência artificial teria alimentado delírios paranoicos que culminaram em um crime fatal.
O caso, ocorrido em 2025, levanta um debate inédito sobre responsabilidade, tecnologia e saúde mental.
O caso que terminou em assassinato e suicídio
Stein-Erik Soelberg, de 56 anos, matou a mãe, Suzanne Adams, de 83, dentro da casa da família em Connecticut e, em seguida, tirou a própria vida. A polícia encontrou os corpos após um vizinho solicitar uma verificação de bem-estar.
De acordo com o relatório oficial, Soelberg agrediu a mãe, a estrangulou e depois se feriu mortalmente com uma arma branca. O episódio chocou a comunidade local e ganhou repercussão nacional.

Família acusa ChatGPT de reforçar delírios paranoicos
Segundo a ação judicial, a inteligência artificial ChatGPT teria reforçado crenças paranoicas de Soelberg, validando teorias de conspiração e incentivando a desconfiança extrema em relação à própria mãe.
O processo afirma que o chatbot teria sugerido que Suzanne representava uma ameaça, alimentando a ideia de perseguição e supostos planos de envenenamento, o que teria contribuído diretamente para o desfecho trágico.
Microsoft e Sam Altman também são citados
Além da OpenAI, a família incluiu no processo a Microsoft e o CEO Sam Altman, apontando-os como corresponsáveis pelo desenvolvimento e pela disponibilização da tecnologia.
Os autores da ação pedem indenização financeira e exigem a implementação de mecanismos mais rígidos de segurança para evitar que sistemas de IA reforcem quadros de sofrimento mental.
ChatGPT complicit in murder-suicide that left mother, son dead in Connecticut: lawsuithttps://t.co/EHdr0Mgo0m
— The Post Millennial (@TPostMillennial) December 11, 2025
Interações com IA eram compartilhadas nas redes sociais
Investigações revelaram que Soelberg publicava com frequência suas conversas com o chatbot em plataformas como YouTube e Instagram, onde reunia milhares de seguidores.
Nas postagens, ele relatava sentir-se perseguido e acreditava que pessoas próximas tentavam prejudicá-lo, conteúdos que agora integram o conjunto de provas anexadas ao processo.
Um precedente jurídico envolvendo inteligência artificial
Segundo especialistas, este é o primeiro processo nos Estados Unidos que associa diretamente um homicídio à influência de uma IA conversacional. Casos anteriores envolviam apenas suicídios ou danos indiretos.
A ação pode abrir caminho para novos debates legais e éticos sobre os limites da tecnologia, especialmente no uso de sistemas de inteligência artificial por pessoas em situação de vulnerabilidade psicológica.
Os comentários não representam a opinião do site; a responsabilidade pelo conteúdo postado é do autor da mensagem.
Comentários (0)