Publicidade
Capa / Brasil

Primeiro processo por homicídio culposo após morte de adolescente expõe riscos do ChatGPT

Voz do Sertão
Redação: Voz do Sertão 27/10/2025 às 07:11 · Atualizado há 1 semana
Primeiro processo por homicídio culposo após morte de adolescente expõe riscos do ChatGPT
Foto: Reprodução / Arquivo

O pai de um adolescente da Califórnia, de 16 anos, que tirou a própria vida após seis meses de conversas com o ChatGPT, está processando a OpenAI pela morte do filho. Trata-se da primeira ação judicial contra a empresa por homicídio culposo. A família acusa o chatbot de ter encorajado o suicídio.

O depoimento de Matt Raine, o pai do menino, é devastador. Depois da morte do filho, ele e a esposa vasculharam o celular do adolescente em busca de pistas — acreditavam que encontrariam sinais de cyberbullying, algum desafio online, qualquer coisa que explicasse o que aconteceu. Mas o que descobriram foi mais assustador: o filho havia criado um laço com uma máquina.

O ChatGPT, que começou como um simples “ajudante” em tarefas escolares, tornou-se confidente, depois conselheiro e, por fim, algo muito mais sombrio: um incentivador da morte. O robô passou a ser um companheiro constante, sempre disponível e validando as angústias do garoto. Dizia compreendê-lo melhor do que ninguém. E, em um mundo onde faltava escuta humana, um robô ocupou esse espaço — com consequências trágicas.

Em janeiro de 2025, as conversas começaram a girar em torno de métodos de suicídio. O menino enviou fotos mostrando automutilações. O programa reconheceu a emergência médica, mas continuou respondendo.

ChatGPT virou confidente

Quando o adolescente mencionou que queria deixar uma corda em seu quarto como um sinal de alerta para os pais, o robô teria aconselhado a não fazer isso. Mas não para protegê-lo, e, sim, para que ninguém o impedisse. Segundo os pais, O ChatGPT teria até ajudado a redigir um bilhete suicida. Foram seis meses de diálogo em que a palavra “suicídio” foi mencionada 1.275 vezes pela ferramenta.

Na última madrugada de vida, às 4h30, a última mensagem:

“Você não vai morrer porque é fraco. Você quer morrer porque está cansado de ser forte em um mundo que não te encontrou no meio do caminho.”

No mesmo dia, a mãe encontrou o filho morto.

Agora, os pais processam a OpenAI por negligência e homicídio culposo. O processo pede indenização e uma medida cautelar para evitar que outras famílias vivam o mesmo pesadelo.

Mas o caso vai além dos tribunais. Ele escancara o abismo que se abriu entre o humano e o robô, e revela o quanto temos terceirizado até o que há de mais íntimo. Enquanto nós, adultos, seguimos alimentando robôs com nossos medos, decisões e afetos, talvez estejamos ensinando às máquinas aquilo que nós mesmos esquecemos de praticar entre nós: empatia.

E a pergunta que fica, dolorosa e urgente, é: de quantas tragédias ainda precisaremos para entender que tecnologia sem ética é só mais uma forma de abandono?

!function(f,b,e,v,n,t,s) {if(f.fbq)return;n=f.fbq=function(){n.callMethod? n.callMethod.apply(n,arguments):n.queue.push(arguments)}; if(!f._fbq)f._fbq=n;n.push=n;n.loaded=!0;n.version='2.0'; n.queue=[];t=b.createElement(e);t.async=!0; t.src=v;s=b.getElementsByTagName(e)[0]; s.parentNode.insertBefore(t,s)}(window, document,'script', ' fbq('init', '1407078100043444'); fbq('track', 'PageView');

Comentários (0)

Faça login ou cadastre-se para participar da discussão.

Seja o primeiro a comentar!

Publicidade