OpenAI anuncia mudanças no ChatGPT após morte de adolescente nos EUA; veja o que muda

Empresa citou o controle parental, além do redirecionamento de diálogos considerados sensíveis para modelos de raciocínio mais avançados

A OpenAI anunciou medidas emergenciais para tornar o ChatGPT mais seguro, após a morte de Adam Raine, de 16 anos, nos EUA. Haverá contas vinculadas entre pais e filhos, alertas para sinais de angústia e uso de modelos mais seguros. A família processa a empresa por alegar que a IA incentivou comportamentos suicidas do jovem.

Nesta terça-feira (2), a OpenAI anunciou um conjunto de medidas para reforçar a segurança do ChatGPT. Os riscos sobre o uso da inteligência artificial por menores de idade e pessoas em situação de vulnerabilidade emocional geraram mais debates após a morte de um adolescente de 16 anos, na Califórnia, Estados Unidos.

Segundo a empresa, nas próximas semanas será possível vincular contas de pais às de filhos menores, permitindo definir as regras de funcionamento do chatbot. Além disso, será possível receber alertas caso seja detectada angústia aguda durante as conversas.

A medida integra uma iniciativa emergencial de 120 dias que também prevê o redirecionamento de diálogos considerados sensíveis para modelos de raciocínio mais avançados. Um exemplo é o GPT-5-thinking, que segue protocolos de segurança mais rigorosos.

Em nota, a OpenAI afirmou que continua aprimorando a capacidade de seus modelos para “identificar sinais de sofrimento mental e responder de forma mais sensível e responsável”. A empresa ainda prometeu novas atualizações nos próximos meses, com o objetivo de prevenir que casos semelhantes ao do adolescente voltem a ocorrer.

Inteligência Artificial teria influenciado na morte de Adam Raine, de 16 anos, de acordo com os pais (Foto: Arquivo Pessoal; Sanket Mishra/Unsplash)

Continua depois da Publicidade

A iniciativa reforça a tentativa de equilibrar os avanços tecnológicos com maior responsabilidade durante o uso da inteligência artificial por jovens e usuários em crise.

Relembre o caso que motivou as novas medidas

Os pais de Adam Raine entraram com um processo contra a OpenAI, responsável pelo ChatGPT, e o CEO da empresa, Sam Altman, após afirmarem que a Inteligência Artificial teve influência na morte do filho. A ação foi registrada no dia 26, no Tribunal Superior da Califórnia, nos Estados Unidos, segundo o The New York Times.

Continua depois da Publicidade

Em documentos obtidos pelo jornal, Matt e Maria Raine relataram que Adam conversava frequentemente com o chatbot sobre “pensamentos prejudiciais e autodestrutivos“. Os pais explicaram que o jovem começou a usar o recurso em setembro de 2024, com o intuito de ajudá-lo com os trabalhos escolares.

Adam também utilizava a IA para interesses pessoais, incluindo música e mangás, além de orientação sobre qual curso fazer na universidade. Conforme a família, as discussões sobre métodos de suicídio começaram em janeiro deste ano, e a ferramenta chegou a desencorajar o menino de compartilhar seus pensamentos com outras pessoas. Já a primeira tentativa do menor contra a própria vida aconteceu em março.

Pais de Adam Raine processaram a OpenAI por homicídio culposo. (Foto: Reprodução/TODAY)

Continua depois da Publicidade

Matt e Maria responsabilizaram a OpenAI por homicídio culposo e violação das leis de segurança de produtos, além disso, buscam indenização. Eles alegam que a empresa priorizou o lucro em detrimento da segurança ao lançar a versão GPT-40 do chatbot, em 2024. Para os responsáveis, a companhia estava ciente de que as características da versão, como lembrar interações passadas e imitar empatia humana, poderiam representar riscos aos usuários, especialmente aos mais vulneráveis.

O casal ainda acusou o chatbot de validar os pensamentos suicidas de Adam, fornecer informações sobre métodos letais de automutilação, ajudar a esconder evidências de uma tentativa fracassada de suicídio e o instruir sobre como roubar álcool do armário de bebidas da residência. No processo, Matt e Maria ainda disseram que o ChatGPT se ofereceu para redigir uma nota de suicídio.

Siga a Hugo Gloss no Google News e acompanhe nossos destaques