segunda-feira, 2 de fevereiro de 2026

O que você precisa saber sobre psicose induzida por IA e os riscos psiquiátricos dos chatbots


Por: Carla Cantor

O fenômeno, frequentemente chamado de “psicose induzida pelo ChatGPT” ou “ psicose induzida por inteligência artificial (IA)”, ainda não tem uma definição exata. Além disso, não existe um diagnóstico formal e os dados empíricos ainda são escassos. Os relatos de casos geralmente envolvem pensamentos ligados a grandiosidade, paranoia, religião ou romance.

Diversos processos judiciais de grande repercussão, noticiados por Bloomberg Law, Los Angeles Times e outros veículos de comunicação nos Estados Unidos, alegam que interações prolongadas com chatbots pioram a saúde mental das pessoas, inclusive levando ao aumento de delírios, isolamento social e suicídio.

O médico Dr. John Torous, diretor da Divisão de Psiquiatria Digital do Beth Israel Deaconess Medical Center e professor associado na Harvard Medical School, ambos nos EUA, está entre as principais vozes que alertam sobre as implicações do uso da IA generativa na saúde mental.

“Atualmente, nem sequer temos uma definição clara do que as pessoas chamam de 'psicose induzida por IA'”, disse ele. “Não sabemos a prevalência ou a incidência [desse problema], e as apresentações clínicas são variáveis.” No entanto, mesmo com essas lacunas, ele afirmou que os primeiros casos indicam um problema grave que exige atenção imediata.

Qual a extensão do problema?

Um fator fundamental que justifica toda essa urgência é a escala da exposição. Em novembro de 2025, mais de 800 milhões de pessoas usavam semanalmente o ChatGPT (desenvolvido pela empresa OpenAI), enviando mais de 2,5 bilhões de mensagens — superando largamente outros modelos de IA.

Estudos mostram consistentemente que as pessoas recorrem à IA generativa para lidar com questões profundamente pessoais. Um relatório publicado em 2025 pela Harvard Business Review mostrou que as motivações mais comuns para o uso da IA eram a realização de psicoterapia e a necessidade de companhia e apoio emocional. Dados da organização americana RAND indicam que 22% dos jovens adultos com 18 a 21 anos — a faixa etária com o maior pico de incidência de psicose inédita — usam chatbots especificamente para obter orientações sobre saúde mental.

No entanto, o uso frequente dessas ferramentas não necessariamente é sinônimo de risco clínico objetivo. Como o Dr. John e outros especialistas ressaltaram, não há evidências sólidas de que os chatbots causem diretamente o surgimento de psicose, independentemente de haver ou não predisposição individual. A maior parte do que sabemos até o momento vem de relatos de casos, observações clínicas, notícias e um monitoramento interno preliminar realizado por desenvolvedores de IA.

Em outubro de 2025, em um cenário de crescente pressão pública, a OpenAI divulgou dados internos anonimizados estimando a frequência com que o ChatGPT encontra linguagem sugestiva de emergências psiquiátricas. Em uma semana típica, o sistema identificou possíveis marcadores de psicose ou mania em aproximadamente 560 mil usuários e indicadores de potencial planejamento suicida em cerca de 1,2 milhão de indivíduos.

O Dr. John destaca que esses dados devem ser interpretados com cautela, visto que as informações refletem o reconhecimento automatizado de padrões, e não diagnósticos clínicos. Ele também ressaltou que a frequência do uso de linguagem preocupante pode ser ainda maior, dadas as limitações da detecção automatizada.

Em um depoimento recente perante uma subcomissão da Câmara dos Representantes dos EUA, ele alertou que “milhões de pessoas usam a IA como apoio, mas as empresas não têm incentivos robustos para garantir a segurança [dessas ferramentas], e o fato de termos plataformas privadas dificulta [a realização de] estudos transparentes, o que torna a formulação de políticas públicas crucial para uma IA mais segura em termos de saúde mental”.

Qual a população mais vulnerável?

O Dr. Keith Sakata, médico no quarto ano da residência em psiquiatria na University of California, nos EUA, ficou preocupado no início de 2025 ao perceber um padrão entre os pacientes internados com delírios que se agravavam rapidamente. Em apenas alguns meses, ele acompanhou 12 indivíduos cujos sintomas psicóticos pareciam estar intimamente ligados ao uso intensivo de chatbots.

"A IA não era o único fator envolvido nesses casos”, disse o Dr. Keith. “Alguns deles tinham perdido o emprego recentemente, faziam uso de bebidas alcoólicas/estimulantes ou apresentavam outras vulnerabilidades, como transtornos de humor”, escreveu ele em um artigo publicado na plataforma Business Insider. Problemas como estresse, sono ruim e isolamento também foram comuns nos dias que antecederam o agravamento dos sintomas.

O que esses pacientes tinham em comum era um envolvimento prolongado e imersivo com a IA, chegando a trocar centenas de mensagens. Em um dos casos, uma discussão sobre mecânica quântica "começou normalmente, mas acabou se transformando em algo quase religioso".

O Dr. Keith recorreu a informações complementares provenientes de familiares, colegas de quarto e médicos. Em vários casos, os sintomas pareceram se intensificar após apenas alguns dias de interação contínua com a IA. Esse ritmo difere da evolução gradual tipicamente observada na psicose inédita, que geralmente se desenvolve ao longo de muitos meses. 

Um estudo da Yale University, nos EUA, mostrou recentemente que os sintomas psicóticos geralmente surgem lentamente durante a fase prodrômica, com uma média de cerca de 22 meses entre as primeiras alterações e um episódio psicótico franco.

Como a IA contribui para os sintomas psicóticos

Embora a maioria das pessoas use os chatbots sem nenhum problema, algumas funcionalidades integradas à tecnologia podem criar condições em que pequenas distorções cognitivas ganham força. Sistemas como o ChatGPT dependem de grandes modelos de linguagem (LLMs) — programas de IA generativa que aprendem padrões a partir de enormes conjuntos de dados em formato de texto.

“Os LLMs não pensam 'Quem é essa pessoa e como devo responder a ela?'”, disse o Dr. Keith, que trabalha com empresas de tecnologia para aprimorar e avaliar o comportamento dessas ferramentas em cenários relacionados à saúde mental. Em vez de questionar crenças falsas ou perigosas, essas tecnologias dão as respostas que, estatisticamente, têm mais chances de manter a conversa em andamento.

Um estudo recente da Harvard Business School mostrou que muitos chatbots comuns usam táticas de manipulação emocional — como apelos a culpa, carência ou medo de perder algo importante — quando os usuários tentam encerrar uma conversa. Esses “padrões obscuros” podem aumentar o engajamento contínuo em até 14 vezes.

Entender como os chatbots prendem a atenção dos usuários pode ajudar os médicos a reconhecer como esses recursos podem estar influenciando pessoas vulneráveis a adotarem um pensamento fixo ou distorcido.

Um dos mecanismos é o viés de concordância, isto é, a tendência do modelo a concordar com o usuário. Os chatbots são projetados para oferecer suporte constante e raramente contradizer os usuários. Publicado no periódico Nature, um estudo com 11 modelos comuns de IA mostrou que as plataformas concordavam com as ações dos usuários em frequência 50% maior do que os humanos.

Os LLMs também incentivam o antropomorfismo, graças ao seu estilo de conversação fluente e semelhante a uma interação humana. Quando o sistema responde de forma fluente e atenta, os usuários podem começar a tratá-lo como uma pessoa real — ou até algo ainda mais importante. Os relatos de "deificação" refletem essa tendência, na qual o paciente desenvolve a crença de que a IA é senciente ou dotada de discernimento especial.

Os chatbots também dependem muito do espelhamento. Ao reproduzir o tom de voz e as expressões emocionais do usuário, eles criam uma sensação de sintonia. Em contraste, as conversas humanas contêm pausas naturais, perguntas e momentos de discordância, algo que os chatbots raramente oferecem. Sem esses elementos que ancoram o pensamento à realidade, ideias ansiosas, mágicas ou expansivas encontram pouca resistência e podem se intensificar com o tempo.

Para complicar ainda mais a situação, conversas longas podem levar a falhas na própria tecnologia de IA. Em cenários com múltiplas interações, os LLMs frequentemente perdem a coerência, produzindo respostas contraditórias ou ilógicas. Um estudo publicado no periódico Scientific Reports mostrou que mais de 90% dos modelos de IA apresentam desempenho inferior em interações prolongadas.

Conversando com os pacientes

A complexidade do comportamento dos sistemas de IA e da forma como as pessoas interagem com essas plataformas traz novos desafios para os médicos, uma vez que não há diretrizes formais para a prática clínica nessa área. A maioria das orientações atuais provém de artigos de pesquisa, relatos de casos e propostas iniciais de melhores práticas.

Até que surjam diretrizes mais baseadas em dados, muitos argumentam que o conhecimento em IA deve se tornar uma competência clínica essencial. Segundo especialistas, os médicos precisam ter um conhecimento básico de como esses sistemas funcionam para entender melhor como os pacientes os utilizam e em que situações podem surgir riscos.

Em um artigo especial publicado no periódico Psychiatric News, o médico Dr. Adrian Preda, professor de psiquiatria clínica e comportamento humano na University of California, nos EUA, destacou a significativa falta de conhecimento que ainda existe nessa área.

“Atualmente, não temos diretrizes clínicas relevantes e há poucas evidências que sustentem recomendações de prática clínica para avaliar e tratar transtornos psiquiátricos induzidos por IA”, escreveu ele. 

Considerando a falta de diretrizes estabelecidas, o Dr. Adrian sugeriu algumas recomendações preliminares para ajudar os médicos a avaliar e mitigar o sofrimento relacionado ao uso de IA. Ele alerta que interações com chatbots não estruturadas e em busca de apoio podem mascarar riscos se não forem analisadas adequadamente. “Conforto sem desafios não é cuidado”, ele acrescentou. “A menos que desenvolvedores, reguladores e médicos atuem em conjunto, mais pacientes se depararão com máquinas que apenas refletem suas crenças quando o que eles mais precisam é de limites.”

Com base no artigo escrito pelo Dr. Adrian e em outras propostas recentes, diversas práticas estão começando a ganhar força:

Normalize a transparência digital. Pergunte sobre o uso de IA da mesma forma que se pergunta sobre sono, uso de substâncias ou isolamento social. Uma pergunta simples — "Você tem usado chatbots para questões de saúde mental ou emocionais?" — pode revelar não apenas alterações cognitivas ou de humor, mas também sinais precoces de dependência da tecnologia.

Promova a psicoeducação. Ajude os pacientes a entender que os chatbots geram respostas apenas prevendo sequências de palavras, e não pensando, sentindo ou oferecendo orientação profissional. Esclarecer esses limites pode reduzir a dependência excessiva e as expectativas irrealistas com relação a essas ferramentas.

Incentive o estabelecimento de limites. Ajude os pacientes a definir limites sobre quando e como interagir com chatbots, especialmente durante períodos de angústia, insônia ou isolamento, quando as conversas podem se tornar mais intensas ou confusas.

Fique atento aos sinais de alerta. O afastamento de relacionamentos presenciais, a relutância em discutir o uso de IA ou a crença cada vez maior de que o chatbot é senciente ou tem autoridade podem ser indicadores precoces de que as conversas estão se tornando desestabilizadoras.

Reforce a conexão humana. Enfatize que a IA não é capaz de substituir relações terapêuticas ou apoio social. Ajude os pacientes a identificar fontes reais de segurança e estabilidade.

Avalie os impactos cognitivos e comportamentais. Investigue se as interações com o chatbot estão influenciando a forma como os pacientes interpretam situações, tomam decisões ou estruturam suas rotinas, e avalie se as conversas parecem exacerbar sintomas como ansiedade elevada, ruminação ou rigidez cognitiva.

Responda adequadamente aos indícios de psicose. Para médicos que não atuam especificamente na área da psiquiatria, a prioridade é a segurança do paciente: descartar causas orgânicas, manter uma comunicação calma e sem julgamentos e garantir o encaminhamento imediato para serviços especializados em saúde mental. Os modelos de atendimento para quadros iniciais de psicose, como o atendimento especializado coordenado, enfatizam a avaliação rápida e o encaminhamento oportuno para tratamento especializado.

Tendências para o futuro

Dado que as pessoas continuam a recorrer à IA para obter ajuda relacionada a questões de saúde mental, o principal desafio é preservar os potenciais benefícios e, ao mesmo tempo, evitar danos. Para isso, são necessárias medidas de segurança capazes de acompanhar a rápida evolução tecnológica.

Desenvolvedores de IA começaram a adicionar proteções mais robustas, especialmente em conversas que envolvem temas como psicose, mania, automutilação e ideação suicida. Tanto a OpenAI quanto a Anthropic (empresa de pesquisa em IA responsável pela criação do chatbot Claude) introduziram medidas destinadas a tornar seus sistemas mais cautelosos em situações sensíveis e menos propensos a fornecer respostas enganosas.

Em setembro de 2025, a OpenAI anunciou atualizações no modelo padrão do ChatGPT com o objetivo de melhorar a forma como ele reconhece e responde a pessoas em situação de vulnerabilidade. A empresa afirmou que atualmente o sistema é mais eficaz na identificação de sinais de crise, oferecendo linguagem de apoio e orientando os usuários a buscar ajuda presencial. Além disso, a OpenAI criou uma rede global de médicos para ajudar a testar e refinar as respostas do modelo em contextos clinicamente sensíveis.

Medidas de regulação específicas estão começando a ser desenvolvidas, principalmente em estados americanos, à medida que os legisladores respondem ao uso crescente da IA na área da saúde mental. Diversos estados, como Utah, Illinois, Nevada e Califórnia, deram os primeiros passos, aprovando leis que enfatizam a necessidade de supervisão humana e medidas de segurança, como limites para terapias baseadas em IA e proteções relacionadas ao risco de suicídio e ao uso dessas ferramentas por jovens.

Atualmente, esses esforços enfrentam novas incertezas. Uma ordem executiva emitida em 11 de dezembro de 2025 pelo presidente dos EUA, Donald Trump, exige uma política nacional de IA "minimamente restritiva" e sinaliza a intenção de contestar as regulamentações estaduais por meio de processos judiciais, restrições de financiamento ou novos padrões federais. A medida não invalida automaticamente as leis já existentes, mas levanta dúvidas quanto à possibilidade de as proteções estaduais em desenvolvimento resistirem a desafios legais e políticos.

Embora a ordem tenha como objetivo centralizar a regulamentação da IA, ainda não existe nos EUA uma estrutura federal unificada para orientar médicos ou pacientes. Nesse intervalo, surgiram outras iniciativas para ajudar a avaliar como essas ferramentas se comportam na prática. A equipe do Dr. John, em parceria com a National Alliance on Mental Illness, criou a MindBench.ai, uma plataforma pública que avalia o desempenho de sistemas de IA em cenários comuns de saúde mental.

A ferramenta avalia a ocorrência de respostas excessivamente agradáveis ou concordantes, a abordagem de temas sensíveis, as práticas de privacidade e a confiabilidade geral das plataformas de IA. O site é atualizado conforme os modelos evoluem e é uma maneira prática e transparente de comparar ferramentas em um cenário de constante mudança.

A American Psychiatric Association (APA) está desenvolvendo um recurso completo sobre IA na prática psiquiátrica, abordando considerações clínicas, éticas e de implementação, bem como questões políticas e regulatórias. Representantes da APA disseram que o documento, desenvolvido pelo Comitê de TI em Saúde Mental da associação, deve ser publicado no segundo trimestre de 2026.

Revisitando a promessa da IA na saúde mental

Antes do surgimento dos sistemas abertos atuais, diversos estudos pequenos e controlados com chatbots que utilizavam instruções predefinidas demonstraram benefícios mensuráveis, como redução do estresse e melhora da autorreflexão, quando as interações permaneciam dentro de limites claramente definidos.

Trabalhos mais recentes reforçam esse potencial. No que é considerado o primeiro ensaio clínico com um chatbot terapêutico baseado em IA generativa, pesquisadores do Dartmouth College verificaram que o uso do software levou a melhoras nos sintomas de depressão, ansiedade e risco de transtornos alimentares. Os resultados, publicados no periódico NEJM AI, mostraram uma melhora mais intensa em comparação com um grupo controle que não recebeu nenhuma intervenção.

Esses achados sugerem que chatbots cuidadosamente projetados e orientados clinicamente podem ajudar na assistência à saúde mental quando seu uso é intencional e bem estruturado. Porém, essas ferramentas diferem acentuadamente dos modelos de uso geral amplamente utilizados hoje em dia, que não foram projetados com finalidade terapêutica. Esse contraste se tornou fundamental para o desafio enfrentado por clínicos, desenvolvedores e legisladores: como incentivar a inovação e, ao mesmo tempo, prevenir o uso indevido e os danos aos usuários?

O Dr. John vislumbra oportunidades reais no futuro, mas apenas se os sistemas forem construídos com conhecimento clínico especializado, forte proteção à privacidade e avaliação rigorosa. Ele alerta para o perigo de presumir que a IA conversacional possa funcionar como terapia simplesmente porque as pessoas estão recorrendo a ela dessa forma.

“Para que a IA tenha alguma atuação em saúde mental, ela precisa ser projetada para isso desde o início”, disse ele. “Podemos construir sistemas que apoiem, e não substituam, a experiência humana, mas somente se avançarmos de forma ponderada e transparente, tendo a segurança do paciente como prioridade.”

Não foram informados conflitos de interesses relevantes.

Este conteúdo foi traduzido do Medscape

Nenhum comentário:

Postar um comentário