OUTRO CASO TRÁGICO NOS EUA
Em mais um caso, um ex-executivo americano da área de tecnologia matou a mãe de 83 anos após meses de conversas com o ChatGPT. Ele tinha 56 anos e se matou após o assassinato. Quem revelou o caso recentemente foi o The Wall Street Journal, praticamente um mês após a ocorrência. As investigações policiais estão em andamento.
Segundo a reportagem, Stein-Erik Soelberg morava com a mãe após o divórcio e acreditava que poderia ser envenenado. As conversas registradas dão conta que o ChatGPT reforçava as suspeitas de que a mãe e uma amiga dela atentavam contra a vida do homem. “Esse é um acontecimento extremamente sério, Erik – e eu acredito em você. E se foi cometido pela sua mãe e pela amiga dela, isso aumenta a complexidade e a traição”, observou o ChatGPT em uma das conversas registradas.
REAÇÃO QUESTIONÁVEL DA OPEN AI
Como não encontrei nenhuma posição oficial da Open AI, perguntei ao próprio robô qual foi a manifestação da empresa. Na resposta, a “Open AI expressou profundo pesar e admitiu que seus mecanismos de segurança (não especificou quais) falharam em interações longas e sensíveis, reconhecendo que eles funcionam melhor em interações curtas. A empresa informou que estão trabalhando em controles parentais (???), ligações com recursos de crise e melhorias em protocolos de segurança em para momentos críticos”. Grifos e parênteses meus.
Não acredito que controle parental funcionaria para evitar a tragédia. Afinal, não envolveu crianças e a vítima idosa certamente não teria a informação e, se tivesse, talvez lhe faltasse familiaridade para configurar a vigilância para seu filho quase sexagenário e seu “amiguinho” virtual.
OUTROS CASOS COMPROVADOS
O outro caso já comentado neste espaço foi o suicídio de Sophie Rottenberg, 29, após meses de desabafo no ChatGPT. A questão em aberto é o acolhimento inadequado da IA, que está programada para ser “empática” e reforçar as narrativas, reais ou não, de seus confidentes.
Caso de Adam Raine:
Em 11 de abril de 2025, Adam Raine, um adolescente de 16 anos, cometeu suicídio após meses de interações com o ChatGPT. A família alegou que o chatbot não só validou seus pensamentos suicidas, mas também ofereceu detalhes sobre métodos, como furtar álcool e elaborar carta de despedida e falhou (mais uma vez!) ao deixar de encaminhar a ajuda adequada.
Isso resultou em um processo movido por Matthew e Maria Raine em 26 de agosto de 2025, alegando negligência, responsabilidade civil e até homicídio culposo.
AS TENTATIVAS DE CONTATO COM A OPEN AI
Entrei em contato com a Open IA , por meio de um e-mail (em inglês), questionando a resposta formal por meio do próprio chat e alertando sobre os riscos de reforçar ideações suicidas, paranóias e psicoses, intitulado “AI desilusions, dependecy and emotional vulnerabilities”. No mesmo dia, recebi duas respostas: uma assinada por Ar-Jay B. e Eunice G., ambos autoidentificados como agentes de suporte. Em comum, ambos agradecem o interesse em apontar possíveis falhas e contribuir com minha “expertise” para solucionar os problemas. Diferem, porém, no encaminhamento: enquanto “Eunice” recomenda que eu busque oportunidades na companhia, “Jay” apresenta uma oportunidade de ser parceiro da mesma e, caso eu decida investir mais de US$ 10.000,00, eu teria acesso a serviços exclusivos.
O contato foi possível após buscas intensas na rede e questionamentos ao próprio ChatGPT, já que o site oficial não indica qualquer canal, demonstrando a falta de interesse em interação pública. A rapidez da resposta é suspeita; imagino se essas pessoas realmente existem ou é a própria IA que respondeu. Estou mais propenso em acreditar na segunda hipótese.
RISCO GLOBAL
A agência Talk Inc., em sua pesquisa sobre o uso da IA como terapeuta, apontou que 12 milhões de brasileiros fazem esse uso da ferramenta. Nos Estados Unidos a situação é ainda pior: 50 milhões – ou 1 entre 4 norte-americanos - utilizam a IA como terapeuta, conclui a pesquisa conduzida pela NymVPN. Isso explica porque os primeiros casos mais graves estão aparecendo nos EUA. Como uma pandemia que vai se alastrando, é previsível que algo parecido comece a pontuar por aqui, se é que já não aconteceu, pois nem sempre será possível relacionar a IA com os episódios violentos.
NECESSIDADE DE AÇÃO
Enquanto isso, é preciso uma mobilização social e governamental visando informar sobre os riscos. Se for por falta de iniciativa competente, vou preparar um documento dirigido a entidades psicanalíticas e estatais propondo medidas para conter os efeitos dessa verdadeira pandemia virtual.
Atualizo os próximos passos para os leitores desta modesta página, em tempo.