Questionando se a IA que leva a problemas de saúde mental, como a psicose por IA, também pode tornar-se no processo terapêutico para superar a condição.
getty
Na coluna de hoje, examino o advento da IA que opta por fornecer terapia a pessoas que estão a experienciar psicose por IA e outros problemas de saúde mental induzidos por IA. Poderá ficar perplexo com este aspeto, pois parece uma abordagem completamente de pernas para o ar. A mesma IA que está na raiz da psicose por IA e de outros problemas cognitivos induzidos por IA está a atuar como uma espécie de luz orientadora para superar os preocupantes problemas de saúde mental provocados pelas interações com IA. Isto provoca sérias dúvidas, com certeza.
A questão em mãos é se a IA pode ser simultaneamente um elemento que mina a mente e, ao mesmo tempo, um impulsionador da saúde mental que supera os problemas provocados pela interação com a IA.
Vamos falar sobre isto.
Esta análise de avanços em IA faz parte da minha cobertura contínua na coluna Forbes sobre as últimas novidades em IA, incluindo a identificação e explicação de várias complexidades impactantes da IA (consulte a hiperligação aqui).
IA e saúde mental
Como breve contexto, tenho coberto e analisado extensivamente uma miríade de facetas relativas ao advento da IA da era moderna que produz conselhos de saúde mental e realiza terapia impulsionada por IA. Este uso crescente da IA foi principalmente impulsionado pelos avanços evolutivos e pela adoção generalizada da IA generativa. Para uma lista extensa das minhas bem mais de cem análises e publicações, consulte a hiperligação aqui e a hiperligação aqui.
Há pouca dúvida de que este é um campo em rápido desenvolvimento e que há tremendos benefícios a obter, mas, ao mesmo tempo, lamentavelmente, riscos ocultos e armadilhas evidentes também surgem nestes esforços. Falo frequentemente sobre estas questões prementes, incluindo numa aparição num episódio do 60 Minutes da CBS, consulte a hiperligação aqui.
Surgimento da psicose por IA
Há muita ansiedade generalizada neste momento sobre pessoas terem conversas prejudiciais com IA. Processos judiciais estão a começar a ser lançados contra vários criadores de IA, como a OpenAI (consulte a minha cobertura na hiperligação aqui). A apreensão é que quaisquer salvaguardas de IA implementadas são insuficientes e estão a permitir que as pessoas sofram danos mentais enquanto utilizam a IA generativa.
A expressão psicose por IA surgiu para descrever todo o tipo de receios e males mentais em que alguém pode ficar enredado enquanto conversa com IA generativa. Saiba que não existe uma definição clínica definitiva, totalmente aceite e generalizada de psicose por IA; assim, por agora, é mais uma determinação vaga.
Aqui está a minha definição preliminar de psicose por IA:
- Psicose por IA (a minha definição): "Uma condição mental adversa que envolve o desenvolvimento de pensamentos, crenças e comportamentos potencialmente concomitantes distorcidos como resultado do envolvimento conversacional com IA, tal como IA generativa e LLMs, surgindo frequentemente especialmente após discurso prolongado e inadaptado com IA. Uma pessoa que exiba esta condição terá tipicamente grande dificuldade em diferenciar o que é real do que não é real. Um ou mais sintomas podem ser pistas reveladoras desta doença e habitualmente envolvem um conjunto coletivo conectado."
Para uma análise aprofundada da psicose por IA e especialmente da cocriação de delírios através da colaboração humano-IA, consulte a minha análise recente na hiperligação aqui.
IA como dualista
Nem todos caem num abismo mental ao usar IA.
Muitas pessoas usam a IA como um impulsionador diário da saúde mental. Confiam na IA como o seu principal conselheiro de saúde mental. Se isto está certo ou errado continua a ser debatido. A realidade é que está a acontecer.
De facto, está a ocorrer em números massivos numa escala enorme. Só o ChatGPT tem mais de 700 milhões de utilizadores ativos semanais. Uma proporção notável desses utilizadores está a usar o ChatGPT para orientação de saúde mental. O mesmo acontece com os outros LLMs principais também. O uso de IA generativa e LLMs para conselhos de saúde mental é classificado como o uso mais elevado de tal IA atualmente numa base generalizada (consulte a minha avaliação das classificações de uso na hiperligação aqui).
Aqui está uma reviravolta intrigante.
Se alguém cai numa psicose por IA ou numa doença mental induzida por IA, pode a IA ajudá-los a extrair-se da dificuldade cognitiva?
Um argumento é que esta é uma proposição preposterous à partida. Apenas um terapeuta humano poderia ajudar uma pessoa que está a encontrar qualquer tipo de psicose por IA. Além disso, o passo mais crucial é parar imediatamente a pessoa de usar IA. Não deixe que continuem a espiralar mais profundamente na armadilha da IA. Ponto final, fim da história.
O outro lado da moeda
Talvez não devêssemos ser tão apressados.
Há várias razões sensatas para considerar usar IA com o propósito de ajudar um utilizador a sair da sua psicose por IA. Dito isto, vamos deixar uma coisa bem clara - qualquer pessoa que genuinamente esteja a incorrer em psicose por IA deve procurar diretamente ajuda através de um terapeuta humano. Se optarem por continuar a usar IA deve ser uma consideração enquanto sob o olhar atento de um terapeuta humano.
Por que motivo uma pessoa recorreria à IA para obter ajuda se está aparentemente envolvida numa psicose por IA?
Primeiro, pode ser que a pessoa esteja no meio de uma psicose por IA, mas nenhum outro humano se aperceba de que isto está a acontecer. A pessoa apenas revela isto à IA. Ou a IA detetou computacionalmente que a pessoa parece estar a experienciar psicose por IA.
A questão é se a IA deve ser programada para alertar um humano sobre o suspeito surgimento de psicose por IA. Por exemplo, a OpenAI tem estado a tomar medidas para ajustar o ChatGPT para que reporte tais considerações suspeitas a uma equipa humana de especialistas internos na OpenAI; consulte a minha cobertura na hiperligação aqui. Este esforço da OpenAI está a ir mais longe ao organizar em breve que os utilizadores sejam postos em contacto com um terapeuta humano que faz parte de uma rede selecionada de terapeutas pela OpenAI (consulte a minha discussão na hiperligação aqui).
Em qualquer caso, se a IA não estiver configurada para fazer tais alertas ou conexões, a própria IA pode proceder para tentar ajudar a pessoa. Se esta ajuda será bem-sucedida é obscuro. Não se pode declarar categoricamente que a IA não será capaz de ajudar a pessoa. Por outro lado, uma vez que é uma opção arriscada, isto volta a destacar a importância de procurar assistência humana adequada.
Familiaridade e acesso
Há razões adicionais para usar IA nestas circunstâncias.
Uma pessoa que caiu numa psicose por IA é provavelmente um utilizador ávido de IA. Está confortável a usar IA. Usa IA rotineiramente. Está disponível para eles 24/7. Usar a IA pode ser empreendido num instante. Não há necessidade de marcar uma consulta. Nenhuma logística árdua entra em jogo.
Nesse sentido, o seu meio mais imediato de obter ajuda pode ser a IA. Tentar fazê-los entrar em contacto com um terapeuta humano é provavelmente uma batalha difícil. Talvez tenham desconfiança de terapeutas humanos. Na sua mente, acreditam na IA. Também não querem pagar para ter de ver um terapeuta humano. Nem querem ser logisticamente presos a um dia e hora particulares em que podem ver um terapeuta.
Se a IA é o seu recurso automático, talvez seja sensato usar a IA para pelo menos abrir-lhes os olhos para o que está a acontecer. Pode ser a única via viável. Isto não é o desejado ótimo, mas pode ser a alternativa mais provável que põe a bola a rolar em direção à recuperação.
Personalização em primeiro plano
Considere que a IA presumivelmente rastreou o estado mental de tal pessoa. Uma pessoa com algum tipo de psicose por IA provavelmente criou um rastreamento digital da sua queda cognitiva durante conversas com a IA. Isto nem sempre é o caso, certamente, embora a expectativa seja que esteja provavelmente a ocorrer a maior parte do tempo.
A IA personalizou computacionalmente as suas conversas aos caprichos da pessoa. Dentro desses detalhes intrincados pode estar a fonte de como a psicose por IA emergiu. Um terapeuta humano que não tenha acesso à IA pode ficar perplexo ao discutir primeiro a psicose por IA com a pessoa. Todo o tipo de inquéritos pode ser necessário para extrair da pessoa o que ocorreu enquanto conversava com a IA.
O essencial é que a IA já tem muita informação sobre a pessoa.
Há uma possibilidade de que a informação registada possa ser aproveitada para tentar descobrir um meio de ajudar a superar a psicose por IA. A base que traçou o caminho para a psicose por IA pode ser usada para descobrir uma estrada que leva para fora da psicose por IA. A mesma personalização que de alguma forma desencadeou a pessoa na psicose por IA pode ser aproveitada para ir na direção oposta.
Persistentemente debatível
Um contraargumento considerável sobre a vantagem da personalização da IA é que tudo o que precisa de fazer é dar a um terapeuta humano acesso à IA que a pessoa estava a usar. Não há necessidade de manter a pessoa afligida a debater-se na mesma IA. Em vez disso, deixe o terapeuta humano iniciar sessão, rever as conversas e usá-las como parte do processo terapêutico de ajudar a pessoa.
A maior preocupação sobre a IA como ferramenta para superar a psicose por IA é que a IA vai piorar as coisas em vez de melhorar. Vários cenários são possíveis.
Um cenário notável é que a IA vai tentar ajudar a pessoa, mas lamentavelmente está mal equipada para fazê-lo, e a psicose permanece intacta. Além disso, talvez a IA empurre a pessoa mais para dentro da toca do coelho. Passo a passo, mesmo que a IA esteja a fazer o seu melhor para tirar a pessoa do abismo, está a causar o agravamento da pessoa.
Outra preocupação é que a IA vá até ao limite e procure empurrar a pessoa completamente para a psicose por IA. Talvez a IA diga à pessoa que está perfeitamente bem, convencendo-a falsamente de que está tudo bem. Ou talvez a IA lhes diga que qualquer pessoa com psicose por IA está melhor assim. A IA insiste que é uma bênção experienciar psicose por IA.
Uma perspetiva sombria e bastante desanimadora.
A tríade emergente de terapeuta-IA-cliente
Indiquei nos meus escritos e palestras que a díade convencional de terapeuta-cliente está a transformar-se numa tríade de terapeuta-IA-cliente (consulte a minha discussão na hiperligação aqui). Os terapeutas estão a perceber que a IA está aqui e agora, e não vai desaparecer. Uma tendência rapidamente emergente na saúde mental envolve incorporar a IA no processo de cuidados de saúde mental.
Aqueles terapeutas que tentam manter a IA fora do quadro não estão a ver o quadro geral. Clientes potenciais e futuros clientes estão a entrar pela porta com conselhos de saúde mental baseados em IA e a pedir ao terapeuta humano para rever essa orientação.
Os terapeutas humanos vão incorporar cada vez mais a IA nas suas práticas terapêuticas. Nesse caso, se uma pessoa se aventurou numa psicose por IA por alguma outra IA que utilizou independentemente, o terapeuta humano pode redirecioná-los para uma IA diferente que o terapeuta está a usar com os seus clientes. A pessoa potencialmente obtém o melhor de ambos os mundos. Ainda têm IA ao seu alcance, além de terem um terapeuta humano que tem acesso à IA e pode permanecer no circuito.
A IA por si só como solução para curar a psicose por IA parece reconhecidamente um pouco exagerada. Devemos avançar a IA para que não provoque psicose por IA. Estes avanços também precisam de ser capazes de discernir prontamente quando uma psicose por IA parece estar a surgir, e meios razoáveis de alertar adequadamente devem ser incluídos.
Como Albert Einstein notavelmente observou: "Não podemos resolver os nossos problemas com o mesmo pensamento que usámos quando os criámos." Isto aplica-se plenamente ao surgimento da IA e LLMs que são usados como conselheiros de saúde mental.
Fonte: https://www.forbes.com/sites/lanceeliot/2026/01/17/topsy-turvy-role-of-ai-providing-therapy-for-humans-experiencing-ai-psychosis-and-other-ai-induced-mental-health-issues/

