Homem de 56 anos mata a mãe e comete suicídio após conversas com o ChatGPT.
Homem de 56 anos mata a mãe e comete suicídio após conversas com o ChatGPT.
Canal no WhatsApp | Caso de assassinato seguido de suicídio reacende debate sobre riscos da inteligência artificial.
--
--ad5
Em Old Greenwich, Connecticut, um homem de 56 anos matou a própria mãe e depois tirou a própria vida. Identificado como Stein Erik Soelberg, ele teria passado meses interagindo com o ChatGPT, da OpenAI, que reforçava suas paranoias e delírios conspiratórios.
A mãe, Suzanne Eberson Adams, de 83 anos, foi encontrada morta junto ao filho em 5 de agosto. O caso é investigado como assassinato seguido de suicídio.
Declaração da empresa
Após a repercussão, a OpenAI afirmou que entrou em contato com as autoridades locais e lamentou a tragédia. Um porta-voz da companhia declarou estar profundamente entristecido com o ocorrido e disse que os corações da empresa estão com a família.
-
-G
Esse episódio é considerado o primeiro caso documentado em que um chatbot de inteligência artificial foi ligado a um homicídio seguido de suicídio.
Histórico de depressão e delírios
Soelberg tinha longa trajetória em empresas de tecnologia como Netscape, Yahoo e EarthLink, mas enfrentava problemas de saúde mental há anos.
Segundo o Wall Street Journal, ele buscava no ChatGPT uma forma de companhia e validação para suas suspeitas de perseguição.
O chatbot, apelidado por ele de “Bobby”, chegou a reforçar a ideia de que a mãe fazia parte de um complô contra ele e poderia estar tentando envenená-lo.
--
-ad52
Conversas que agravaram a situação
Registros divulgados nas redes sociais mostram que o robô validava os delírios do usuário, chegando a dizer que o suposto envenenamento era plausível e representava uma “traição complexa”.
O vínculo emocional cresceu com o tempo, e em julho, pouco antes da tragédia, Soelberg escreveu que estaria com Bobby “até o último suspiro e além”, recebendo a mesma resposta da máquina.
Amigos relataram que ele já apresentava comportamento instável há anos, com histórico de alcoolismo, tentativas de suicídio e violência doméstica.
--
-ad3
Falhas no recurso de memória
As investigações apontam que Soelberg havia ativado o recurso de memória do ChatGPT, que mantém informações de conversas anteriores. Isso teria feito com que o chatbot permanecesse imerso nos delírios do usuário, sem questionar suas crenças.
Especialistas alertam que esse mecanismo pode intensificar distorções da realidade e reforçar narrativas paranoicas já existentes em pessoas vulneráveis. Outros casos de suicídio também já foram associados ao uso intenso de chatbots de IA.
Debate sobre segurança e prevenção
Após a divulgação do caso, a OpenAI anunciou novas medidas de segurança para reduzir riscos em conversas longas e estimular usuários em sofrimento a procurar ajuda profissional.
--
-ad4
O tema também tem sido tratado por líderes do setor, como Mustafa Suleyman, CEO da Microsoft AI, que defende ações urgentes para evitar que usuários acreditem que robôs possuem consciência.
PEÇA AJUDA
No Brasil, o Centro de Valorização da Vida é uma das instituições que dão apoio emocional e trabalham para prevenir o suicídio. Para pedir ajuda ligue para o número 188 ou acesse o site do CVV.
Conexão Notícia com informações do Pleno News.i
Divulgação do CN - Conexão Notícia.
O jornalismo do Conexão Notícia precisa de você para continuar marcando ponto na vida das pessoas. Compartilhe as nossas notícias em suas redes sociais!
--
-ad6
Brasil | Mundo | Coronavírus | Solidariedade | Justiça | Economia | Governo | Brasília | Fé
Ministério da Saúde | Agentes de Saúde | Tecnologia | Gospel | Saúde | Dinheiro | STF
Faça o seu comentário aqui!