A inteligência artificial (IA) promete ser uma aliada no cuidado da saúde mental, mas também carrega riscos que não podemos ignorar. O segredo está em como ela será utilizada, não como uma substituta, mas sim, como um suporte.
Como aliada a IA pode oferecer um primeiro suporte, estimulando que a pessoa busque ajuda adequada depois. Isso já acontece com programas que usam algoritmos para indicar ou monitorar o humor. Também há ganho em eficiência em tarefas administrativas, triagens iniciais, coleta de dados, elaboração de prontuários, liberando o profissional para o que de fato importa: sua presença, escuta e intervenção humana. A IA também pode ajudar a personalizar intervenções se “treinada” com dados suficientes.
Outro ponto a ser considerado é que temas que são um tabu em nossa sociedade ou que produzam medo de julgamento as pessoas tendem a se sentirem mais livres para compartilhar com uma “máquina” do que olho no olho de outro ser humano.
Na conta dos riscos, não se engane, a IA pode ser uma fraude para quem precisa de acolhimento real. Primeiro ponto: ela não sente. Ela pode simular empatia com frase prontas, mas não capta nuances: tom de voz, silêncios, olhar, história pessoal, como um terapeuta humano.
Outro risco grave: a segurança de dados. Informações psicológicas são sensíveis. Se vazarem ou forem manipuladas, podem causar danos reais. Também há o perigo de diagnóstico automático e precipitado. A IA pode rotular uma pessoa com depressão, ansiedade ou outro transtorno sem compreensão de contexto, gerando autodiagnósticos perigosos ou reforçando um autodiagnóstico equivocado.
Por fim, precisamos desmascarar o risco do isolamento. Se depender só de IA, a pessoa deixa de buscar contato humano, de construir rede de apoio, de exercitar habilidades sociais que só amadurecem no contato real com outro ser humano.
A inteligência artificial é uma ferramenta poderosa, mas ferramenta não é a “cura” para tudo. Quem lida com sofrimento humano não pode terceirizar o essencial: o vínculo, a escuta e a ética. A IA deve estar ao lado do psicólogo, nunca no lugar dele.
Para que a IA funcione de forma eficaz e responsável, três condições são essenciais. A primeira é a regulamentação ética: o Conselho Federal de Psicologia já avança na construção de diretrizes para orientar esse uso. A segunda é a formação dos profissionais: psicólogos precisam aprender a utilizar a IA de maneira crítica, compreendendo seus limites e riscos. Por fim, a transparência e o consentimento são indispensáveis. Quem recorre à IA no cuidado com a saúde mental deve saber claramente como seus dados serão utilizados, até onde vai a atuação humana e em que ponto começa a intervenção do algoritmo.
Se acertarmos no uso da IA ela poderá servir como extensão do cuidado humano, reduzindo desigualdades, aumentando o alcance da saúde mental. Se errarmos, e já vemos sinais disso, estaremos por um fio de causar danos que não podemos nem prever. No fim para quem sofre ainda é mais seguro buscar ajuda de um profissional de carne e osso.
