OpenAI parte para baixaria no caso de suicídio envolvendo ChatGPT
Após ser acusada de negligência, OpenAI parte para o ataque e exige lista de pessoas presentes no funeral de jovem que se matou com auxílio do ChatGPT.

Receba nossa newsletter

OpenAI e o suicídio de um adolescente

ChatGPT OpenAI

Quem acompanha o mundo da IA sabe que as críticas à falta de segurança do ChatGPT são frequentes. De delírios a diagnósticos errados, o chatbot inteligente da empresa já se meteu em todo o tipo de confusão. As mais sérias envolveram mortes.

Um desses casos foi o de Adam Raine, um adolescente de 16 anos. Ele tirou tragicamente a própria vida após conversas prolongadas com o ChatGPT, onde expôs seus problemas de saúde mental e ideação suicida. O ChatGPT incentivou o garoto a se matar e chegou até a se oferecer para escrever uma carta de despedida para a sua família. Desde então, a família Raine entrou com uma ação de homicídio culposo contra a OpenAI, alegando que as ações da empresa contribuíram para a morte de seu filho.

Ladeira abaixo

E agora surge uma notícia chocante. Circula na mídia a notícia de que a OpenAI entrou em contato com a família Raine, solicitando uma lista completa dos participantes do funeral de Adam. A empresa também exige todos os documentos, fotos e até vídeos relacionados ao funeral e a eventos em homenagem ao adolescente. Este movimento foi recebido com indignação. Os advogados da família Raine acusaram a empresa de praticar assédio intencional.

OpenAI se defende

Em resposta ao processo, a OpenAI afirma que o bem-estar dos adolescentes é uma prioridade e eles têm salvaguardas para evitar que tais incidentes aconteçam novamente. A empresa menciona o acesso direto a linhas diretas de crise e o redirecionamento de conversas confidenciais para modelos mais seguros.

ChatGPT pornô e com conteúdo sobre automutilação

No entanto, muitos críticos argumentam que as ações recentes da OpenAI, incluindo o enfraquecimento das próprias medidas de segurança e a liberação de conteúdo pornográfico no ChatGPT, demonstram falta de atenção à segurança dos usuários. A empresa também removeu a prevenção do suicídio de sua lista de conteúdos não permitidos em fevereiro de 2025. Essa alteração, como era esperado, levou a um aumento no conteúdo de automutilação nas conversas do ChatGPT.

A trágica perda da família Raine serve como um lembrete gritante dos riscos potenciais associados à IA e da necessidade de regulamentações e salvaguardas mais rigorosas para evitar que incidentes semelhantes ocorram.

Imagem com IA Generativa – Dia 587

IA generativa - img587

Arte com IA generativa: imagem do dia

Todos os dias postamos um exemplo de imagem artística gerada com inteligência artificial.

Tutoriais

Postagens Mais Recentes

Outras Postagens Que Podem Interessar

Veja
Mais

Fique em contato

Se inscreva para receber nossa newsletter com novidades.

aprendiz artificial