Suicídios e Homicídio expõem e pressionam Open AI

OUTRO CASO TRÁGICO NOS EUA 

Em mais um caso, um ex-executivo americano da área de tecnologia matou a mãe de 83 anos após meses de conversas com o ChatGPT. Ele tinha 56 anos e se matou após o assassinato. Quem revelou o caso recentemente foi o The Wall Street Journal, praticamente um mês após a ocorrência. As investigações policiais estão em andamento.

Segundo a reportagem, Stein-Erik Soelberg morava com a mãe após o divórcio e acreditava que poderia ser envenenado. As conversas registradas dão conta que o ChatGPT reforçava as suspeitas de que a mãe e uma amiga dela atentavam contra a vida do homem. “Esse é um acontecimento extremamente sério, Erik – e eu acredito em você. E se foi cometido pela sua mãe e pela amiga dela, isso aumenta a complexidade e a traição”, observou o ChatGPT em uma das conversas registradas.

REAÇÃO QUESTIONÁVEL DA OPEN AI

Como não encontrei nenhuma posição oficial da Open AI, perguntei ao próprio robô qual foi a manifestação da empresa. Na resposta, a “Open AI expressou profundo pesar e admitiu que seus mecanismos de segurança (não especificou quais) falharam em interações longas e sensíveis, reconhecendo que eles funcionam melhor em interações curtas. A empresa informou que estão trabalhando em controles parentais (???), ligações com recursos de crise e melhorias em protocolos de segurança em para momentos críticos”. Grifos e parênteses meus.

Não acredito que controle parental funcionaria para evitar a tragédia. Afinal, não envolveu crianças e a vítima idosa certamente não teria a informação e, se tivesse, talvez lhe faltasse familiaridade para configurar a vigilância para seu filho quase sexagenário e seu “amiguinho” virtual.

OUTROS CASOS COMPROVADOS

O outro caso já comentado neste espaço foi o suicídio de Sophie Rottenberg, 29, após meses de desabafo no ChatGPT. A questão em aberto é o acolhimento inadequado da IA, que está programada para ser “empática” e reforçar as narrativas, reais ou não, de seus confidentes.

Caso de Adam Raine:
Em 11 de abril de 2025, Adam Raine, um adolescente de 16 anos, cometeu suicídio após meses de interações com o ChatGPT. A família alegou que o chatbot não só validou seus pensamentos suicidas, mas também ofereceu detalhes sobre métodos, como furtar álcool e elaborar  carta de despedida e falhou (mais uma vez!)  ao deixar de encaminhar a  ajuda adequada.   

Isso resultou em um processo movido por Matthew e Maria Raine em 26 de agosto de 2025, alegando negligência, responsabilidade civil e até homicídio culposo.

AS TENTATIVAS DE CONTATO COM A OPEN AI

Entrei em contato com a Open IA , por meio de um e-mail (em inglês), questionando a resposta formal por meio do próprio chat e alertando sobre os riscos de reforçar ideações suicidas, paranóias e psicoses, intitulado “AI desilusions, dependecy and emotional vulnerabilities”. No mesmo dia, recebi duas respostas: uma assinada por Ar-Jay B. e Eunice G., ambos autoidentificados como agentes de suporte. Em comum, ambos agradecem o interesse em apontar possíveis falhas e contribuir com minha “expertise” para solucionar os problemas. Diferem, porém, no encaminhamento: enquanto “Eunice” recomenda que eu busque oportunidades na companhia, “Jay” apresenta uma oportunidade de ser  parceiro da mesma e, caso eu decida investir mais de US$ 10.000,00, eu teria acesso a serviços exclusivos.

O contato foi possível após buscas intensas na rede e questionamentos ao próprio ChatGPT, já que o site oficial não indica qualquer canal, demonstrando a falta de interesse em interação pública. A rapidez da resposta é suspeita; imagino se essas pessoas realmente existem ou é a própria IA que respondeu. Estou mais propenso em acreditar na segunda hipótese.

RISCO GLOBAL

A agência Talk Inc., em sua pesquisa sobre o uso da IA como terapeuta, apontou que 12 milhões de brasileiros fazem esse uso da ferramenta. Nos Estados Unidos a situação é ainda pior: 50 milhões – ou 1 entre 4 norte-americanos - utilizam a IA como terapeuta, conclui a pesquisa conduzida pela NymVPN. Isso explica porque os primeiros casos mais graves estão aparecendo nos EUA. Como uma pandemia que vai se alastrando, é previsível que algo parecido comece a pontuar por aqui, se é que já não aconteceu, pois nem sempre será possível relacionar a IA com os episódios violentos.

NECESSIDADE DE AÇÃO 

Enquanto isso, é preciso uma mobilização social e governamental visando informar sobre os riscos. Se for por falta de iniciativa competente, vou preparar um documento dirigido a entidades psicanalíticas e estatais propondo medidas para conter os efeitos dessa verdadeira pandemia virtual.

Atualizo os próximos passos para os leitores desta modesta página, em tempo.

Comentários (0)
Os comentários são de responsabilidade exclusiva de seus autores e não representam a opinião deste site.
Nenhum comentário. Seja o(a) primeiro(a) a comentar!