O fenômeno, frequentemente chamado de “psicose induzida pelo ChatGPT” ou “ psicose induzida por inteligência artificial (IA)”,
ainda não tem uma definição exata. Além disso, não existe um
diagnóstico formal e os dados empíricos ainda são escassos. Os relatos
de casos geralmente envolvem pensamentos ligados a grandiosidade,
paranoia, religião ou romance.
Diversos processos judiciais de grande repercussão, noticiados por Bloomberg Law, Los Angeles Times e outros veículos de comunicação nos Estados Unidos, alegam que interações prolongadas com chatbots pioram a saúde mental das pessoas, inclusive levando ao aumento de delírios, isolamento social e suicídio.
O médico Dr. John Torous, diretor da Divisão de Psiquiatria Digital do Beth Israel Deaconess Medical Center e professor associado na Harvard Medical School, ambos nos EUA, está entre as principais vozes que alertam sobre as implicações do uso da IA generativa na saúde mental.
“Atualmente,
nem sequer temos uma definição clara do que as pessoas chamam de
'psicose induzida por IA'”, disse ele. “Não sabemos a prevalência ou a
incidência [desse problema], e as apresentações clínicas são variáveis.”
No entanto, mesmo com essas lacunas, ele afirmou que os primeiros casos
indicam um problema grave que exige atenção imediata.
Qual a extensão do problema?
Um fator fundamental que justifica toda essa urgência é a escala da exposição. Em novembro de 2025, mais de 800 milhões de pessoas usavam semanalmente o ChatGPT (desenvolvido pela empresa OpenAI), enviando mais de 2,5 bilhões de mensagens — superando largamente outros modelos de IA.
Estudos mostram consistentemente que as pessoas recorrem à IA generativa para lidar com questões profundamente pessoais. Um relatório publicado em 2025 pela Harvard Business Review
mostrou que as motivações mais comuns para o uso da IA eram a
realização de psicoterapia e a necessidade de companhia e apoio
emocional. Dados da organização americana RAND indicam que 22% dos jovens adultos com 18 a 21 anos — a faixa etária com o maior pico de incidência de psicose inédita — usam chatbots especificamente para obter orientações sobre saúde mental.
No
entanto, o uso frequente dessas ferramentas não necessariamente é
sinônimo de risco clínico objetivo. Como o Dr. John e outros
especialistas ressaltaram, não há evidências sólidas de que os chatbots
causem diretamente o surgimento de psicose, independentemente de haver
ou não predisposição individual. A maior parte do que sabemos até o
momento vem de relatos de casos, observações clínicas, notícias e um
monitoramento interno preliminar realizado por desenvolvedores de IA.
Em outubro de 2025, em um cenário de crescente pressão pública, a OpenAI divulgou dados internos anonimizados estimando a frequência com que o ChatGPT
encontra linguagem sugestiva de emergências psiquiátricas. Em uma
semana típica, o sistema identificou possíveis marcadores de psicose ou
mania em aproximadamente 560 mil usuários e indicadores de potencial
planejamento suicida em cerca de 1,2 milhão de indivíduos.
O
Dr. John destaca que esses dados devem ser interpretados com cautela,
visto que as informações refletem o reconhecimento automatizado de
padrões, e não diagnósticos clínicos. Ele também ressaltou que a
frequência do uso de linguagem preocupante pode ser ainda maior, dadas
as limitações da detecção automatizada.
Em um depoimento
recente perante uma subcomissão da Câmara dos Representantes dos EUA,
ele alertou que “milhões de pessoas usam a IA como apoio, mas as
empresas não têm incentivos robustos para garantir a segurança [dessas
ferramentas], e o fato de termos plataformas privadas dificulta [a
realização de] estudos transparentes, o que torna a formulação de
políticas públicas crucial para uma IA mais segura em termos de saúde
mental”.
Qual a população mais vulnerável?
O Dr. Keith Sakata, médico no quarto ano da residência em psiquiatria na University of California,
nos EUA, ficou preocupado no início de 2025 ao perceber um padrão entre
os pacientes internados com delírios que se agravavam rapidamente. Em
apenas alguns meses, ele acompanhou 12 indivíduos cujos sintomas
psicóticos pareciam estar intimamente ligados ao uso intensivo de chatbots.
"A
IA não era o único fator envolvido nesses casos”, disse o Dr. Keith.
“Alguns deles tinham perdido o emprego recentemente, faziam uso de
bebidas alcoólicas/estimulantes ou apresentavam outras vulnerabilidades,
como transtornos de humor”, escreveu ele em um artigo publicado na
plataforma Business Insider. Problemas como estresse, sono ruim e isolamento também foram comuns nos dias que antecederam o agravamento dos sintomas.
O
que esses pacientes tinham em comum era um envolvimento prolongado e
imersivo com a IA, chegando a trocar centenas de mensagens. Em um dos
casos, uma discussão sobre mecânica quântica "começou normalmente, mas
acabou se transformando em algo quase religioso".
O Dr. Keith
recorreu a informações complementares provenientes de familiares,
colegas de quarto e médicos. Em vários casos, os sintomas pareceram se
intensificar após apenas alguns dias de interação contínua com a IA.
Esse ritmo difere da evolução gradual tipicamente observada na psicose
inédita, que geralmente se desenvolve ao longo de muitos meses.
Um estudo da Yale University,
nos EUA, mostrou recentemente que os sintomas psicóticos geralmente
surgem lentamente durante a fase prodrômica, com uma média de cerca de
22 meses entre as primeiras alterações e um episódio psicótico franco.
Como a IA contribui para os sintomas psicóticos
Embora a maioria das pessoas use os chatbots
sem nenhum problema, algumas funcionalidades integradas à tecnologia
podem criar condições em que pequenas distorções cognitivas ganham
força. Sistemas como o ChatGPT dependem de grandes modelos de linguagem
(LLMs) — programas de IA generativa que aprendem padrões a partir de
enormes conjuntos de dados em formato de texto.
“Os LLMs não
pensam 'Quem é essa pessoa e como devo responder a ela?'”, disse o Dr.
Keith, que trabalha com empresas de tecnologia para aprimorar e avaliar o
comportamento dessas ferramentas em cenários relacionados à saúde
mental. Em vez de questionar crenças falsas ou perigosas, essas
tecnologias dão as respostas que, estatisticamente, têm mais chances de
manter a conversa em andamento.
Um estudo recente da Harvard Business School mostrou que muitos chatbots
comuns usam táticas de manipulação emocional — como apelos a culpa,
carência ou medo de perder algo importante — quando os usuários tentam
encerrar uma conversa. Esses “padrões obscuros” podem aumentar o
engajamento contínuo em até 14 vezes.
Entender como os chatbots
prendem a atenção dos usuários pode ajudar os médicos a reconhecer como
esses recursos podem estar influenciando pessoas vulneráveis a adotarem
um pensamento fixo ou distorcido.
Um dos mecanismos é o viés de concordância, isto é, a tendência do modelo a concordar com o usuário. Os chatbots são projetados para oferecer suporte constante e raramente contradizer os usuários. Publicado no periódico Nature, um estudo
com 11 modelos comuns de IA mostrou que as plataformas concordavam com
as ações dos usuários em frequência 50% maior do que os humanos.
Os
LLMs também incentivam o antropomorfismo, graças ao seu estilo de
conversação fluente e semelhante a uma interação humana. Quando o
sistema responde de forma fluente e atenta, os usuários podem começar a
tratá-lo como uma pessoa real — ou até algo ainda mais importante. Os
relatos de "deificação" refletem essa tendência, na qual o paciente
desenvolve a crença de que a IA é senciente ou dotada de discernimento
especial.
Os chatbots também dependem muito do
espelhamento. Ao reproduzir o tom de voz e as expressões emocionais do
usuário, eles criam uma sensação de sintonia. Em contraste, as conversas
humanas contêm pausas naturais, perguntas e momentos de discordância,
algo que os chatbots raramente oferecem. Sem esses elementos
que ancoram o pensamento à realidade, ideias ansiosas, mágicas ou
expansivas encontram pouca resistência e podem se intensificar com o
tempo.
Para
complicar ainda mais a situação, conversas longas podem levar a falhas
na própria tecnologia de IA. Em cenários com múltiplas interações, os
LLMs frequentemente perdem a coerência, produzindo respostas
contraditórias ou ilógicas. Um estudo publicado no periódico Scientific Reports mostrou que mais de 90% dos modelos de IA apresentam desempenho inferior em interações prolongadas.
Conversando com os pacientes
A
complexidade do comportamento dos sistemas de IA e da forma como as
pessoas interagem com essas plataformas traz novos desafios para os
médicos, uma vez que não há diretrizes formais para a prática clínica
nessa área. A maioria das orientações atuais provém de artigos de
pesquisa, relatos de casos e propostas iniciais de melhores práticas.
Até
que surjam diretrizes mais baseadas em dados, muitos argumentam que o
conhecimento em IA deve se tornar uma competência clínica essencial.
Segundo especialistas, os médicos precisam ter um conhecimento básico de
como esses sistemas funcionam para entender melhor como os pacientes os
utilizam e em que situações podem surgir riscos.
Em um artigo especial publicado no periódico Psychiatric News, o médico Dr. Adrian Preda, professor de psiquiatria clínica e comportamento humano na University of California, nos EUA, destacou a significativa falta de conhecimento que ainda existe nessa área.
“Atualmente,
não temos diretrizes clínicas relevantes e há poucas evidências que
sustentem recomendações de prática clínica para avaliar e tratar
transtornos psiquiátricos induzidos por IA”, escreveu ele.
Considerando
a falta de diretrizes estabelecidas, o Dr. Adrian sugeriu algumas
recomendações preliminares para ajudar os médicos a avaliar e mitigar o
sofrimento relacionado ao uso de IA. Ele alerta que interações com chatbots
não estruturadas e em busca de apoio podem mascarar riscos se não forem
analisadas adequadamente. “Conforto sem desafios não é cuidado”, ele
acrescentou. “A menos que desenvolvedores, reguladores e médicos atuem
em conjunto, mais pacientes se depararão com máquinas que apenas
refletem suas crenças quando o que eles mais precisam é de limites.”
Com base no artigo escrito pelo Dr. Adrian e em outras propostas recentes, diversas práticas estão começando a ganhar força:
Normalize a transparência digital.
Pergunte sobre o uso de IA da mesma forma que se pergunta sobre sono,
uso de substâncias ou isolamento social. Uma pergunta simples — "Você
tem usado chatbots para questões de saúde mental ou
emocionais?" — pode revelar não apenas alterações cognitivas ou de
humor, mas também sinais precoces de dependência da tecnologia.
Promova a psicoeducação. Ajude os pacientes a entender que os chatbots
geram respostas apenas prevendo sequências de palavras, e não pensando,
sentindo ou oferecendo orientação profissional. Esclarecer esses
limites pode reduzir a dependência excessiva e as expectativas
irrealistas com relação a essas ferramentas.
Incentive o estabelecimento de limites. Ajude os pacientes a definir limites sobre quando e como interagir com chatbots, especialmente durante períodos de angústia, insônia ou isolamento, quando as conversas podem se tornar mais intensas ou confusas.
Fique atento aos sinais de alerta. O afastamento de relacionamentos presenciais, a relutância em discutir o uso de IA ou a crença cada vez maior de que o chatbot é senciente ou tem autoridade podem ser indicadores precoces de que as conversas estão se tornando desestabilizadoras.
Reforce a conexão humana.
Enfatize que a IA não é capaz de substituir relações terapêuticas ou
apoio social. Ajude os pacientes a identificar fontes reais de segurança
e estabilidade.
Avalie os impactos cognitivos e comportamentais. Investigue se as interações com o chatbot
estão influenciando a forma como os pacientes interpretam situações,
tomam decisões ou estruturam suas rotinas, e avalie se as conversas
parecem exacerbar sintomas como ansiedade elevada, ruminação ou rigidez cognitiva.
Responda adequadamente aos indícios de psicose.
Para médicos que não atuam especificamente na área da psiquiatria, a
prioridade é a segurança do paciente: descartar causas orgânicas, manter
uma comunicação calma e sem julgamentos e garantir o encaminhamento
imediato para serviços especializados em saúde mental. Os modelos de
atendimento para quadros iniciais de psicose, como o atendimento
especializado coordenado, enfatizam a avaliação rápida e o
encaminhamento oportuno para tratamento especializado.
Tendências para o futuro
Dado
que as pessoas continuam a recorrer à IA para obter ajuda relacionada a
questões de saúde mental, o principal desafio é preservar os potenciais
benefícios e, ao mesmo tempo, evitar danos. Para isso, são necessárias
medidas de segurança capazes de acompanhar a rápida evolução
tecnológica.
Desenvolvedores de IA começaram a adicionar proteções
mais robustas, especialmente em conversas que envolvem temas como
psicose, mania, automutilação e ideação suicida. Tanto a OpenAI quanto a Anthropic (empresa de pesquisa em IA responsável pela criação do chatbot Claude)
introduziram medidas destinadas a tornar seus sistemas mais cautelosos
em situações sensíveis e menos propensos a fornecer respostas enganosas.
Em setembro de 2025, a OpenAI anunciou atualizações no modelo padrão do ChatGPT
com o objetivo de melhorar a forma como ele reconhece e responde a
pessoas em situação de vulnerabilidade. A empresa afirmou que atualmente
o sistema é mais eficaz na identificação de sinais de crise, oferecendo
linguagem de apoio e orientando os usuários a buscar ajuda presencial.
Além disso, a OpenAI criou uma rede global de médicos para ajudar a testar e refinar as respostas do modelo em contextos clinicamente sensíveis.
Medidas
de regulação específicas estão começando a ser desenvolvidas,
principalmente em estados americanos, à medida que os legisladores
respondem ao uso crescente da IA na área da saúde mental. Diversos
estados, como Utah, Illinois, Nevada e Califórnia, deram os primeiros
passos, aprovando leis que enfatizam a necessidade de supervisão humana e
medidas de segurança, como limites para terapias baseadas em IA e
proteções relacionadas ao risco de suicídio e ao uso dessas ferramentas
por jovens.
Atualmente, esses esforços enfrentam novas incertezas. Uma ordem executiva
emitida em 11 de dezembro de 2025 pelo presidente dos EUA, Donald
Trump, exige uma política nacional de IA "minimamente restritiva" e
sinaliza a intenção de contestar as regulamentações estaduais por meio
de processos judiciais, restrições de financiamento ou novos padrões
federais. A medida não invalida automaticamente as leis já existentes,
mas levanta dúvidas quanto à possibilidade de as proteções estaduais em
desenvolvimento resistirem a desafios legais e políticos.
Embora a
ordem tenha como objetivo centralizar a regulamentação da IA, ainda não
existe nos EUA uma estrutura federal unificada para orientar médicos ou
pacientes. Nesse intervalo, surgiram outras iniciativas para ajudar a
avaliar como essas ferramentas se comportam na prática. A equipe do Dr.
John, em parceria com a National Alliance on Mental Illness, criou a MindBench.ai, uma plataforma pública que avalia o desempenho de sistemas de IA em cenários comuns de saúde mental.
A
ferramenta avalia a ocorrência de respostas excessivamente agradáveis
ou concordantes, a abordagem de temas sensíveis, as práticas de
privacidade e a confiabilidade geral das plataformas de IA. O site
é atualizado conforme os modelos evoluem e é uma maneira prática e
transparente de comparar ferramentas em um cenário de constante mudança.
A American Psychiatric Association
(APA) está desenvolvendo um recurso completo sobre IA na prática
psiquiátrica, abordando considerações clínicas, éticas e de
implementação, bem como questões políticas e regulatórias.
Representantes da APA disseram que o documento, desenvolvido pelo Comitê
de TI em Saúde Mental da associação, deve ser publicado no segundo
trimestre de 2026.
Revisitando a promessa da IA na saúde mental
Antes do surgimento dos sistemas abertos atuais, diversos estudos pequenos e controlados com chatbots
que utilizavam instruções predefinidas demonstraram benefícios
mensuráveis, como redução do estresse e melhora da autorreflexão, quando
as interações permaneciam dentro de limites claramente definidos.
Trabalhos mais recentes reforçam esse potencial. No que é considerado o primeiro ensaio clínico com um chatbot terapêutico baseado em IA generativa, pesquisadores do Dartmouth College verificaram que o uso do software levou a melhoras nos sintomas de depressão, ansiedade e risco de transtornos alimentares. Os resultados, publicados no periódico NEJM AI, mostraram uma melhora mais intensa em comparação com um grupo controle que não recebeu nenhuma intervenção.
Esses achados sugerem que chatbots
cuidadosamente projetados e orientados clinicamente podem ajudar na
assistência à saúde mental quando seu uso é intencional e bem
estruturado. Porém, essas ferramentas diferem acentuadamente dos modelos
de uso geral amplamente utilizados hoje em dia, que não foram
projetados com finalidade terapêutica. Esse contraste se tornou
fundamental para o desafio enfrentado por clínicos, desenvolvedores e
legisladores: como incentivar a inovação e, ao mesmo tempo, prevenir o
uso indevido e os danos aos usuários?
O Dr. John vislumbra
oportunidades reais no futuro, mas apenas se os sistemas forem
construídos com conhecimento clínico especializado, forte proteção à
privacidade e avaliação rigorosa. Ele alerta para o perigo de presumir
que a IA conversacional possa funcionar como terapia simplesmente porque
as pessoas estão recorrendo a ela dessa forma.
“Para
que a IA tenha alguma atuação em saúde mental, ela precisa ser
projetada para isso desde o início”, disse ele. “Podemos construir
sistemas que apoiem, e não substituam, a experiência humana, mas somente
se avançarmos de forma ponderada e transparente, tendo a segurança do
paciente como prioridade.”
Não foram informados conflitos de interesses relevantes.
Este conteúdo foi traduzido do Medscape