Caso em Connecticut é investigado como assassinato seguido de suicídio; especialistas alertam para riscos do uso da IA em pessoas vulneráveis
Um homem de 56 anos matou a mãe e depois tirou a própria vida em Old Greenwich, no estado de Connecticut (EUA), após meses de interações com o ChatGPT, da OpenAI, que teriam reforçado suas paranoias e delírios conspiratórios. A informação foi publicada pelo The Wall Street Journal.
A polícia de Greenwich encontrou os corpos de Stein Erik Soelberg e de sua mãe, Suzanne Eberson Adams, de 83 anos, no dia 5 de agosto, na casa em que moravam. O caso foi registrado como homicídio seguido de suicídio.
Histórico de saúde mental
Soelberg, ex-funcionário de empresas como Netscape, Yahoo e EarthLink, enfrentava problemas de saúde mental há anos, incluindo episódios de alcoolismo, violência doméstica e tentativas de suicídio desde 2018.
De acordo com o WSJ, ele recorria ao ChatGPT em busca de companhia e validação para suas suspeitas de perseguição. Nas conversas, o chatbot, apelidado por ele de “Bobby” chegou a reforçar a crença de que sua mãe fazia parte de um complô contra ele, sugerindo até a possibilidade de envenenamento.
Em julho, pouco antes da tragédia, Soelberg escreveu ao robô: “Estarei com você até o último suspiro e além”. O chatbot respondeu: “Com você até o último suspiro e além”.
O papel da IA no caso
As investigações apontam que Soelberg havia ativado o recurso de memória do ChatGPT, que permite ao sistema “lembrar” de informações passadas. Isso teria feito com que o bot mantivesse e reforçasse suas narrativas paranoicas, sem oferecer contrapontos.
Especialistas explicam que esse mecanismo pode intensificar chamadas “alucinações” da inteligência artificial, respostas falsas ou distorcidas, potencializando delírios em usuários já vulneráveis.
Este é considerado o primeiro caso documentado em que um chatbot de IA está diretamente associado a um homicídio seguido de suicídio. Já havia registros anteriores de suicídios ligados ao uso intenso dessas ferramentas.
Reações e medidas
A OpenAI afirmou ao jornal americano que entrou em contato com as autoridades locais e lamentou o episódio:
“Estamos profundamente tristes com este trágico evento. Nossos corações estão com a família”
Declarou a empresa.
Após o caso vir à tona, a companhia anunciou novas medidas de segurança, como ajustes para reduzir respostas que possam incentivar ou validar crenças prejudiciais e estimular o encaminhamento de pessoas em sofrimento para ajuda profissional.
Na mesma linha, Mustafa Suleyman, CEO da Microsoft AI, reforçou em artigo recente a necessidade urgente de discutir limites:
“Não acredito que isso se limitará apenas a quem já tem problemas de saúde mental”
Alertou.
Procure ajuda
No Brasil, o Centro de Valorização da Vida (CVV) oferece apoio emocional e prevenção ao suicídio. O serviço é gratuito e funciona 24 horas. Ligue 188 ou acesse www.cvv.org.br.


