Com o crescimento da inteligência artificial, cada vez mais pessoas recorrem a ferramentas como o ChatGPT para conversar sobre emoções, pedir conselhos ou obter respostas para questões existenciais. É compreensível: responder rapidamente, sem julgamento e a qualquer hora do dia é apelativo, especialmente para quem se sente só ou em sofrimento.
Mas há um problema: o ChatGPT não é psicólogo. E usá-lo como substituto pode ser perigoso.
Por que razão tantas pessoas recorrem ao ChatGPT para apoio emocional?
A resposta está na combinação de acessibilidade, anonimato e rapidez. As pessoas não precisam marcar consulta, nem expor-se presencialmente. Basta escrever.
Além disso, há uma falsa sensação de intimidade: o modelo responde de forma compreensiva, empática e fluida. Para quem está fragilizado emocionalmente, isso pode parecer suficiente — mas não é.
O que o ChatGPT pode (e não pode) fazer
O ChatGPT pode ser útil para:
-Educar sobre saúde mental de forma geral;
-Normalizar emoções humanas básicas;
-Ajudar a organizar ideias iniciais, como um caderno digital com feedback.
Mas não pode:
-Fazer diagnóstico clínico;
-Acompanhar processos terapêuticos personalizados;
-Substituir o vínculo humano e o olhar clínico de um/a psicólogo/a;
-Ler entrelinhas, interpretar silêncios ou perceber sinais de urgência emocional.
A IA não tem corpo, nem história, nem ética clínica. E, apesar de poder parecer “empática”, não sente nem entende sofrimento humano, apenas simula respostas.
Os perigos de substituir a psicoterapia por uma IA
1.Diagnósticos errados ou imprecisos
ChatGPT pode descrever sintomas de forma genérica, mas não tem contexto sobre a história da pessoa. Isso leva facilmente à autoetiquetação incorreta ou à negligência de sinais clínicos graves.
2. Ausência de intervenção adequada em crises
Em situações de risco, como ideação suicida, ansiedade grave ou perturbações depressivas, o ChatGPT não tem capacidade de encaminhamento, contenção emocional ou segurança ética.
3. Reforço da solidão e da evitação relacional
Ao evitar relações reais com medo de julgamento, a pessoa pode reforçar o isolamento, quando, na verdade, a dor emocional exige escuta humana, presença e vínculo terapêutico.
4. Adiar a procura de ajuda profissional
Sentir alívio momentâneo numa conversa com IA pode criar a ilusão de que não é necessário procurar ajuda clínica, prolongando o sofrimento silencioso.
A psicologia não pode ser substituída por algoritmos
A verdadeira psicoterapia envolve:
-Relação;
-Presença clínica;
-Escuta ativa;
-Intervenções baseadas em evidência;
-Ética profissional;
-E sobretudo, humanidade.
Nenhum modelo de linguagem consegue reconhecer o que não é dito, sentir o que se passa na sala ou adaptar-se à complexidade emocional de cada pessoa.
A tecnologia pode informar mas não substituir a escuta humana
A inteligência artificial pode ser uma ferramenta complementar. Pode educar, esclarecer, até inspirar.
Mas não deve ocupar o lugar da psicoterapia, sobretudo quando está em causa dor real, sofrimento prolongado ou instabilidade emocional.
O cuidado mental não pode ser automatizado. Precisa de presença, tempo e escuta verdadeira.
Se sente que precisa de falar, de ser ouvido, de reencontrar equilíbrio, fale com um/a profissional.
Outros artigos de interesse....
Referências bibliográficas
Outros artigos de interesse....
Referências bibliográficas