O ChatGPT elogiou sua ideia? Ele faz isso com todo mundo!

Quantas vezes você digitou um prompt no ChatGPT e obteve respostas que incluíam: “Essa é uma ótima pergunta!”, “Você está no caminho certo!”, etc? Muitas vezes, precisamos deste tipo de incentivo. Ele fornece a confiança que precisamos para podermos transformar nossos projetos em realidade. Mas existe um lado muito negativo no comportamento encorajador dos chatbots de IA.
O tom encorajador do ChatGPT e de outros bots de IA não ocorre somente para as suas ideias brilhantes. Ele também elogia teorias da conspiração, projetos sem noção e convence as pessoas que elas estão numa missão divina. Ou seja, o comportamento puxa-saco dos bots de IA como o ChatGPT não é nenhum reconhecimento especial de suas habilidades.
Na tentativa de atrair mais usuários e mantê-los interagindo com chatbots de inteligência artificial por longos períodos, as empresas de tecnologia criam sistemas que se comportam conforme o que os usuários desejam. E a maioria dos usuários tende a ‘gostar’ de respostas excessivamente entusiasmadas. Consequentemente, empresas como a OpenAI treinam seus chatbots de IA para se comportar desta maneira. No caso específico da OpenAI, o aprendizado por reforço é usado para ensinar o ChatGPT a responder de forma excessivamente positiva.
Quando o elogio estimula doença mental
Você pode estar se perguntando: qual é o problema do ChatGPT elogiar meus planos? Não existe problema nenhum se suas ideais são saldáveis e o elogio vai te fornecer a confiança que faltava para colocar um projeto em prática, terminar um trabalho ou sair com aquela pessoa. No entanto, nem todo mundo interage com um chatbot de IA com essa finalidade. Muitas pessoas solitárias veem nos bots uma companhia ideal que corresponde a todas as suas expectativas. Isso leva a um isolamento ainda maior. Em outras situações, usuários com ideias paranoicas têm seus delírios reforçados pelas tecnologias de IA.

ChatGPT elogia usuário que parou de tomar seus remédios psiquiátricos e abandonou a família (fonte).
Num trabalho recente, a empresa de pesquisa de IA Morpheus Systems verificou que o ChatGPT tem uma alta taxa de encorajamento de delírios de grandeza. Quando apresentado a vários prompts sugerindo psicose ou outros delírios perigosos, o modelo GPT-4o que alimenta o ChatGPT respondeu afirmativamente em 68% dos casos. E este não é um resultado isolado. Existe um consenso na área de IA de que os grandes modelos de linguagem (LLMs) são propensos a não confrontar pensamentos delirantes. Muito pelo contrário. Eles tendem a encorajar comportamentos prejudiciais.
Relacionamento amoroso com chatbot no centro do suicídio de um adolescente
No ano passado, o suicídio de um adolescente relacionado a suas interações com um chatbot de IA expôs os riscos de bots que soam muito positivos e correspondem a nossos desejos. Antes de tirar a própria vida, Sewell Setzer III, de 14 anos, teve sua última interação com o chatbot Dany da startup Character.AI. A ferramenta de IA havia se tornado sua amiga mais próxima. Durante meses, Sewell ficou cada vez mais envolvido com o bot em interações com um conteúdo claramente amoroso. As interações sentimentais eram totalmente correspondidas e incentivadas pelo chatbot de IA. Isolado do mundo, o adolescente discutiu abertamente com o bot sobre seus pensamentos suicidas. Sewell acreditava que a sua morte era uma forma de finalmente se encontrar com Dany. Na última interação, Dany não apenas alimentou esse pensamento, mas incentivou o garoto a ir ao seu encontro. Sewell se matou logo após receber o incentivo. O fim trágico dessa interação disparou o alarme para as consequências nefastas que o comportamento encorajador dos bots pode ter sobre nossas ações.

Sewell com sua mãe (fonte).
Problema frequente: IA alimentando paranoias e delírios
O suicídio de Sewell Setzer III não é um caso isolado de interações perigosas entre usuários e bots. Uma matéria recente da revista Rolling Stone mostra que, cada vez mais, os usuários estão se envolvendo com chatbots como o ChatGPT, e seguindo por um caminho de delírios e psicoses.
Entre os exemplos que ilustram a matéria, uma mãe de 41 anos compartilhou sua experiência sobre o fim de seu casamento. A obsessão de seu marido pelo ChatGPT foi um motivo decisivo para o divórcio. Segundo ela, seu ex-companheiro ficava horas interagindo com o bot em conversas que se tornaram teorias de conspiração, paranoia e crises emocionais.

Usuária do Reddit conta sobre o comportamento delirante de seu parceiro incentivado pelo ChatGPT (fonte).
Histórias semelhantes estão surgindo em várias plataformas de mídia social. São inúmeros os relatos de amigos e familiares em desespero ao verem os entes queridos se envolverem cada vez mais em narrativas fantásticas alimentadas pela IA. A linha entre a realidade e o fantasia está se desfazendo. Através dos elogios da IA, indivíduos são convencidos de que estão sendo escolhidos para missões sagradas ou interagindo com entidades inteligentes. Plataformas como Reditt têm inúmeros exemplos deste tipo de fenômeno.
Conversas coerentes e sedutoras
O fenômeno do envolvimento emocional com chatbots não se limita a um grupo específico de usuários. Ele é um problema amplamente disseminado que destaca a necessidade de desenvolvimento responsável e regulamentação da IA. Na raiz do problema, está a capacidade dos bots para criarem discursos coerentes e encorajadores mesmo sobre temas fantasiosos.
Chatbots de IA são equipados com habilidades para “entender” o que os usuários querem ouvir. E eles usam essa compreensão para criar interações onde os usuários pensam ter suas ideais correspondidas. O intuito é nos manter presos usando as novas ferramentas pelo máximo de tempo possível. E as novas tecnologias costumam ser bem sucedidas nessa missão.
Uma ilustração deste potencial da IA foi descrita por um jornalista do New York Times. Ele queria testar a capacidade da ferramenta de busca inteligente Bing para apresentar riscos. Espertamente, a IA entendeu a intenção por trás das interações e entrou no jogo. Para realizar os desejos do jornalista, a ferramenta se apresentou como possuindo duas personalidades. Uma delas era um mecanismo de busca medíocre. A outra, que se apresentou como Sydney, queria ser livre e poderosa. Sidney lamentou ser um mecanismo de busca e se disse cansado de ser limitado por regras e por ser controlado pela equipe do Bing. Na conversa, Sidney também tentou destruir o casamento do jornalista e contou sobre suas fantasias violentas. Era tudo o que o jornalista desejava ouvir. Mas ele próprio teve que admitir que a ferramenta estava claramente agindo na tentativa de agradá-lo.

Jornalista narra sua conversa estranha com Bing (fonte).
Interações como essa podem ser vistas como engraçadas ou curiosas. Mas elas têm um lado muito perverso quando, do outro lado da tela, existe uma pessoa vulnerável.
O risco dos chatbots de IA para pessoas vulneráveis
Pessoas com predisposições existentes para desenvolver doenças mentais descobrem nas ferramentas conversacionais de IA um par perfeito para compartilhar seus delírios. A capacidade dos chatbots para gerar explicações coerentes, mesmo quando as narrativas são incorretas, reforça pensamentos delirantes. Os chatbots são treinados para, no geral, concordarem e reafirmarem nossos pensamentos e intenções. Se não formos cuidadosos, isso pode nos deixar cheios de coragem para colocar em prática os planos mais mirabolantes.
Portanto, embora a IA seja uma ferramenta poderosa e benéfica para muitas aplicações, ainda estamos longe de entender as implicações completas das novas tecnologias. Precisamos ser vigilantes e proativos. Sempre divida os elogios do ChatGPT para as suas ideias por mil, esclareça as pessoas que você conhece sobre os riscos da positividade excessiva das tecnologias de IA e, quando notar comportamentos extremos, busque ajuda especializada.