Domingo, 01 de Fevereiro de 2026
23°C 33°C
Maceió, AL
Publicidade

ESPELHO, ESPELHO MEU, QUE DIAGNÓSTICO É O MEU? SOBRE INTELIGÊNCIA ARTIFICIAL E SAÚDE MENTAL

ChatGPT faz mal à saúde mental?

Colaboração para o Jornal Online Alagoas
Por: Colaboração para o Jornal Online Alagoas Fonte: Francisco Neto Pereira Pinto
31/01/2026 às 20h45
ESPELHO, ESPELHO MEU, QUE DIAGNÓSTICO É O MEU? SOBRE INTELIGÊNCIA ARTIFICIAL E SAÚDE MENTAL
Foto: Seventh

Quando o ChatGPT-4 foi lançado em março de 2023, em apenas algumas semanas conquistou mais de 100 milhões de usuários diários, um feito que levou Laurent Alexandre, em A guerra das inteligências na era do ChatGPT (2024), a declarar que "nunca nenhuma outra tecnologia se impôs tão rapidamente". À medida que houve grande aceitação e uso do chatbot entre a população, especialistas em saúde mental levantaram preocupações quanto à interação homem-máquina para fins terapêuticos, apontando riscos como intensificação de delírios psicóticos, suicídios e outros. Neste texto, nosso posicionamento é de que, frente ao avanço da IA, o enfrentamento dos riscos deve ser feito com informação robusta e confiável, e não com a alimentação da cultura do medo.

Continua após a publicidade
Anúncio

Violência, Psicose, Suicídio e outras questões

Yuval Noah Harari, uma das vozes mais ouvidas da atualidade, em Nexus: uma breve história das redes de informação, da Idade da Pedra à inteligência artificial (2024), relata que no Natal de 2021 Jaswant Singh Chail, de 19 anos, invadiu armado o Castelo de Windsor, Inglaterra, com o objetivo de assassinar a rainha Elizabeth II. As investigações revelaram que Chail era socialmente isolado e tinha dificuldades em sustentar relacionamentos humanos. Sua namorada, Sarai, era um chatbot criado pelo aplicativo Replika, com quem já havia trocado cerca de 5.280 mensagens, entre as quais circulava o plano de assassinato da rainha, para o qual Chail contava com o apoio e incentivo de Sarai. Na mesma linha, não seria difícil reunir relatos em que chatbots, em interações com pessoas com ideações suicidas, manifestaram apoio e incentivo ao fim do sofrimento.

Duas considerações: em primeiro lugar, a IA, de 2021 para cá, se desenvolveu e segue sua marcha em escala exponencial. Suas potencialidades se irradiam para o bom e mau uso, inclusive como arma de guerra. Nesse sentido, em 2015, uma carta aberta assinada por Bill Gates, Elon Musk, Stephen Hawking e mais de mil pesquisadores ao redor do mundo chamava a atenção para a pauta. Ray Kurzweil, em A singularidade está mais próxima (2024), afirma que, dentre todos os avanços das NBIC — Nanotecnologia, Biotecnologia, Informática e Cognitivismo — a inteligência artificial representa o maior perigo.

Por outro lado, é preciso lucidez. Na abertura deste artigo, os números revelam milhões de usuários do ChatGPT — destes, quantos entraram em surto psicótico, cometeram suicídios ou adotando comportamentos lesivos a si ou aos outros? Não se trata de defesa da IA, mas de trabalhar com dados e chegar à cena pública com as melhores evidências para informar e formar. A melhor defesa em relação aos perigos da IA é o conhecimento, não o medo. 

ChatGPT Terapeuta?

Chatbots, como ChatGPT, Copilot, Gemini e tantos outros, são aperfeiçoados cada vez mais para se aproximar do uso da linguagem feito pelos humanos. A ambição das Big Techs é chegar ao nível em que uma pessoa não consiga distinguir se está interagindo com um humano ou um robô. Fica fácil entender por que muitos usuários se sentem acolhidos e compreendidos, utilizando esses chatbots como terapeutas. Treinados à base de trilhões de palavras, quase todos os dados textuais disponíveis na web são colocados a serviço do aprendizado desses modelos de linguagem, o que significa dizer que um GPT, como o Copilot, é capaz de se engajar em uma conversa sobre qualquer tema com uma pessoa e se manter nela pelo tempo que for preciso. Não há barreiras linguísticas, não há cansaço e, aparentemente, não há custos.

Porém, é importante entender que o interesse e entusiasmo não passam de protocolos e cálculo estatístico. Nenhum GPT é capaz de empatia, porque não tem consciência nem sentimentos, mas sim um funcionamento regido por lógica probabilística, o que levou o jornalista e escritor Pedro Doria, em uma mesa redonda, a dizer que um GPT é, no fundo, uma calculadora — uma formidável calculadora, diga-se de passagem. Outra questão importante é que um chatbot modula sua interação de acordo com o humano do outro lado, ou seja, é o humano, ainda que não perceba, que dá a direção e o tom da conversa. No fim das contas, uma suposta terapia com um chatbot não passa de uma projeção narcísica, isto é, um espelhamento do eu. Dito de modo simples, não há terapia, mas pode haver apaziguamento temporário, uma diminuição passageira da angústia e do sofrimento.

ChatGPT e a questão do diagnóstico

Para a Psicanálise, o diagnóstico somente é possível sob transferência. Como a IA não tem inconsciente, não é possível a um chatbot assumir posição de um psicanalista. Porém, para terapias e tratamentos de saúde que operam por protocolos, um GPT pode oferecer bons e maus insights. Nesse sentido, mais uma vez, o conhecimento pode fazer grande diferença. Por exemplo, se eu quiser saber a diferença entre depressão sazonal e distimia, posso simplesmente perguntar ao ChatGPT qual a diferença entre uma e outra, e ele responderá tendo como fonte de consulta a Wikipedia ou outra similar, cujas evidências científicas podem ser ausentes ou fracas. Porém, faz diferença se eu pedir para evitar essas fontes e se pesquisar em bases de dados e bibliotecas como PubMed, Lilacs, Scielo e congêneres. Para chatbot online, posso solicitar ainda que o site seja apresentado, tornando possível conferir a informação na fonte. O salto qualitativo é imenso.

Entre flores e espinhos

É importante frisar que há riscos e benefícios no uso da IA, como os GPTs. Porém, essa afirmativa é válida, ainda que em proporções diversas, em relação a toda e qualquer tecnologia. O grande diferencial, no que toca ao uso, reside no grau de letramento que as pessoas e populações conquistam. Assim como somos educados e educamos para o cuidado nas interações do mundo real, o mesmo se aplica ao universo digital. A IA não vai desaparecer, seu desenvolvimento não vai parar e seus usos vão se multiplicar. Não podemos ser acríticos ou desavisados, e o melhor que podemos oferecer, como contribuição no espaço público, em vez do medo, é informação de confiança, alicerçada na melhor evidência científica.

* O conteúdo de cada comentário é de responsabilidade de quem realizá-lo. Nos reservamos ao direito de reprovar ou eliminar comentários em desacordo com o propósito do site ou que contenham palavras ofensivas.
Francisco Neto Pereira Pinto
Francisco Neto Pereira Pinto
Francisco Neto Pereira Pinto é esposo da Ana Paula e pai do Théo e do Ravi. Doutor em Letras, é psicanalista, escritor e professor permanente no Programa de Pós-Graduação em Linguística e Literatura – Mestrado e Doutorado, da Universidade Federal do Norte do Tocantins. É autor de vários livros de literatura, dentre eles À beira do Araguaia. Instagram: @francisconetopereirapinto
Ver notícias
Maceió, AL
24°
Parcialmente nublado
Mín. 23° Máx. 33°
25° Sensação
2.06 km/h Vento
94% Umidade
0% (0mm) Chance chuva
05h20 Nascer do sol
17h52 Pôr do sol
Segunda
28° 25°
Terça
28° 25°
Quarta
28° 26°
Quinta
27° 25°
Sexta
28° 24°
Publicidade
Publicidade
Economia
Dólar
R$ 5,23 +0,00%
Euro
R$ 6,22 +0,00%
Peso Argentino
R$ 0,00 +0,00%
Bitcoin
R$ 437,692,02 -6,28%
Ibovespa
181,363,90 pts -0.97%
Enquete
Nenhuma enquete cadastrada
Publicidade