Os impactos da IA na saúde mental foi uma reflexão que surgiu enquanto eu estava lendo sobre tecnologia e me deparei com uma matéria sobre o uso de Inteligência Artificial (IA) como suporte emocional e um pretenso substituto de um profissional de saúde mental. Fui atrás de entender um pouco mais sobre o assunto e trago aqui o que encontrei.
Quando falamos sobre saúde mental, a promessa era que a IA democratizaria o acesso, promoveria a personalização do tratamento e ajudaria a monitorar os sintomas. Bem recentemente temos o caso da demissão na Microsoft, que após demitir cerca de 9.000 pessoas, um de seus executivos sugeriu que os funcionários procurassem suporte no Copilot.
Além desse absurdo, podemos refletir sobre as preocupações éticas, técnicas e humanas que não podem ser ignoradas. Será mesmo essa uma revolução digital na saúde mental?
Este artigo tem como objetivo discutir os riscos associados ao uso da IA como suporte à saúde mental. A proposta é fazermos uma reflexão crítica sobre como podemos equilibrar inovação tecnológica com a complexidade da experiência aqui nessa terra.
O papel da IA na saúde mental: avanços e aplicações
Antes de entrarmos no assunto sobre os riscos, vamos entender como vem sendo aplicada a IA na saúde mental:
Chats terapêuticos com bots (aplicações automatizadas): são aqueles que simulam uma conversa com humanos, são os mais utilizados para suporte emocional.
Plataformas que ajudam na triagem: ajudam a interpretar padrões, comportamentos e expressões que podem identificar sinais depressivos, ansiosos e até suicidas.
Aplicativos que ajudam no monitoramento: podem acompanhar o humor, sono, alimentação e outros indicadores do estado psicológicos dos indivíduos.
Terapias personalizadas: algoritmos podem auxiliar nas intervenções com base no histórico clínico e nas respostas do paciente.
Embora essas soluções possam realmente colaborar com o acesso ao cuidado psicológico, principalmente em regiões com escassez de profissionais, a eficácia e a segurança desses sistemas ainda são objetos de debate.

IA na saúde mental: riscos técnicos e funcionais
Falsos diagnósticos e interpretações equivocadas
É possível um modelo de inteligência artificial interpretar de forma errada sinais sutis e contextos culturais, levando a diagnósticos imprecisos. Isso é especialmente perigoso em casos graves, como ideação suicida ou transtornos psicóticos, casos em que a resposta inadequada pode agravar o quadro clínico.
Aqui vale lembrar que a IA disponível atualmente ainda está em seu estágio mais fraco. Não deve, portanto, ser interpretada literalmente em assuntos tão sérios. Um dia isso pode ser possível? Pode! Mas não chegamos momento ainda.
Vieses algoritmos
Não temos certeza de que tipo de dados têm alimentado os algoritmos. Existe o risco de serem dados enviesados que pode reproduzir preconceitos sociais, raciais ou de gênero. Qual a consequência disso? Tratamentos inadequados e negligência de grupos vulneráveis podem ocorrer e isso comprometerá a equidade do cuidado.
Falta de empatia e vínculo humano
As máquinas não podem reproduzir nem perceber nuances que apenas o vínculo humano pode. A relação terapêutica é baseada em confiança, escuta ativa e principalmente empatia. Consequentemente, a ausência desse vínculo emocional pode limitar a profundidade do tratamento e gerar frustrações nos usuários.
Dependência excessiva de tecnologia
Estamos altamente imersos em tecnologia o tempo todo, por todo lado. Direcionar isso para o cuidado com a saúde mental pode ser uma porta para o desenvolvimento de dependência emocional de assistentes virtuais, substituindo as interações humanas por respostas automatizadas. O que pode intensificar o isolamento social e dificultar o desenvolvimento de habilidades interpessoais.
Sobre esse tópico, lembrei-me de uma vizinha que tenho no condomínio que moro que fala dia e noite com o dispositivo Alexa. É muito perturbador, porque ela interage com aquilo como se fosse um humano na sala. Sou da área de tecnologia, mas existem coisas que, sinceramente, eu acho muito “fora da casinha” e fico pensando qual o limite entre praticidade e automação com uma espécie de dependência/obsessão.

Riscos éticos e de privacidade
Exposição de dados sensíveis
Para possuir informação para responder, primeiro a IA precisa coletar. Essa coleta não ocorre apenas com dados que estão pela internet, informações íntimas sobre saúde mental, comportamentos e emoções também são coletadas. Como ainda não temos regulamentações claras, esses dados são vulneráveis a vazamentos, uso indevido ou comercialização.
Ausência de regulamentação específica
Conforme dito no tópico anterior, a maioria dos países não contam com normas claras sobre o uso da IA em contextos terapêuticos, o que dificulta a responsabilização em casos de erros ou danos ao paciente.
Pense no seguinte: se um profissional de saúde mental precisa de formação de nível superior mais o registro em seu conselho, por que IAs podem atuar sem qualquer restrição? Você pode argumentar que é muito caro ter acesso a um tratamento de qualidade, mas vale pensar quanto pode custar um erro induzido por essa ferramenta.
Isolamento e desumanização
A sociedade anda declinando nas habilidades sociais. Percebemos pessoas apressadas nas ruas, impacientes e muita sem atenção. As telas estão minando as relações, o uso excessivo de tecnologias ajuda a reduzir as interações humanas genuínas, contribui para o isolamento social e a perda de habilidades emocionais. Trazer isso para tratamento da saúde mental é somar mais telas, é intensificar o problema.
Normalização da automação do cuidado
Esse risco é observado em todas as profissões. A substituição de profissionais de saúde mental por sistemas automatizados é uma possibilidade. Desvalorizando o papel do psicólogo e comprometendo a qualidade do atendimento. Muitas pessoas não param para pensar que a Inteligência Artificial não é uma fonte inesgotável de conhecimento. Tudo o que ela sabe é treinado. O que isso significa? Significa que ainda não existe algo que substitua as nuances do cérebro humano. Para tratar a complexidade humana é necessário fazer uso dessas nuances. Não é uma situação binária que o sim ou o não conseguem responder com exatidão. É necessário tecer reflexões, analisar cenários, avaliar a personalidade.

IA na saúde mental como ferramenta complementar – não substituta
Como nem tudo deve ser visto apenas pelos seus extremos, especialistas defendem que a IA na saúde mental deve ser usada como ferramenta complementar, e não como substituta da terapia tradicional.
- Pode ser usada na triagem inicial, ajudando a identificar casos que precisam de atenção urgente.
- Servir de apoio ao profissional com análises de dados e monitoramento contínuo.
- Oferecer suporte pontual em momentos de crise, mas sempre com encaminhamento para o atendimento humano.
A Norma Regulamentadora nº 1 (NR-1), por exemplo, exige que empresas identifiquem riscos psicossociais e implementem medidas de controle — algo que a IA pode ajudar a mapear, mas não resolver sozinha.

Casos reais e estudos recentes da IA na saúde mental
• Uma empresa alimentícia criou agentes de saúde mental humanos para atuar na linha de frente, enquanto a IA mapeava áreas críticas. O resultado foi uma abordagem mais eficaz e humanizada do uso da IA na saúde mental.
• Uma instituição financeira implementou mindfulness corporativo após identificar, com apoio da IA, altos níveis de estresse. A intervenção humana foi decisiva para a melhora do clima organizacional.
• Estudos mostram que chatbots terapêuticos podem ser úteis, mas não devem ser confundidos com terapia profissional. A escuta humana continua insubstituível.
Estratégias para mitigar os riscos da IA na saúde mental
Educação digital e emocional: capacitar usuários para entender os limites do uso da IA na saúde mental e reconhecer quanto é necessário buscar ajuda profissional.
Transparência nas plataformas: aplicativos devem deixar claro que não são substitutos para psicólogos, especialmente em casos graves.
Desenvolvimento de IAs éticas: a segurança do usuário deve ser prioridade das empresas, evitar vieses e garantir que os sistemas respeitem a privacidade e a dignidade humana.
Regulamentação específica: governos e conselhos profissionais devem criar normas claras para o uso da IA na saúde mental, incluindo limites de atuação, responsabilidade legal e exigência de supervisão humana.

Conclusão
A Inteligência Artificial representa uma revolução no cuidado com a saúde mental — mas não é uma solução mágica. Seus benefícios são reais, especialmente na ampliação do acesso e na personalização de tratamentos. No entanto, os riscos técnicos, éticos e humanos exigem atenção redobrada.
O cuidado com a saúde mental é, acima de tudo, humano, empático e contextual. A IA na saúde mental pode ser uma aliada poderosa, mas jamais deve substituir o vínculo terapêutico, a escuta ativa e o olhar clínico de um profissional qualificado.
O futuro da saúde mental exige equilíbrio entre inovação e humanização. E esse equilíbrio só será possível se colocarmos as pessoas — e não os algoritmos — no centro da estratégia.
Fontes: