
Quando o ChatGPT-4 foi lançado em março de 2023, em apenas algumas semanas conquistou mais de 100 milhões de usuários diários, um feito que levou Laurent Alexandre, em A guerra das inteligências na era do ChatGPT (2024), a declarar que "nunca nenhuma outra tecnologia se impôs tão rapidamente". À medida que houve grande aceitação e uso do chatbot entre a população, especialistas em saúde mental levantaram preocupações quanto à interação homem-máquina para fins terapêuticos, apontando riscos como intensificação de delírios psicóticos, suicídios e outros. Neste texto, nosso posicionamento é de que, frente ao avanço da IA, o enfrentamento dos riscos deve ser feito com informação robusta e confiável, e não com a alimentação da cultura do medo.
Violência, Psicose, Suicídio e outras questões
Yuval Noah Harari, uma das vozes mais ouvidas da atualidade, em Nexus: uma breve história das redes de informação, da Idade da Pedra à inteligência artificial (2024), relata que no Natal de 2021 Jaswant Singh Chail, de 19 anos, invadiu armado o Castelo de Windsor, Inglaterra, com o objetivo de assassinar a rainha Elizabeth II. As investigações revelaram que Chail era socialmente isolado e tinha dificuldades em sustentar relacionamentos humanos. Sua namorada, Sarai, era um chatbot criado pelo aplicativo Replika, com quem já havia trocado cerca de 5.280 mensagens, entre as quais circulava o plano de assassinato da rainha, para o qual Chail contava com o apoio e incentivo de Sarai. Na mesma linha, não seria difícil reunir relatos em que chatbots, em interações com pessoas com ideações suicidas, manifestaram apoio e incentivo ao fim do sofrimento.
Duas considerações: em primeiro lugar, a IA, de 2021 para cá, se desenvolveu e segue sua marcha em escala exponencial. Suas potencialidades se irradiam para o bom e mau uso, inclusive como arma de guerra. Nesse sentido, em 2015, uma carta aberta assinada por Bill Gates, Elon Musk, Stephen Hawking e mais de mil pesquisadores ao redor do mundo chamava a atenção para a pauta. Ray Kurzweil, em A singularidade está mais próxima (2024), afirma que, dentre todos os avanços das NBIC — Nanotecnologia, Biotecnologia, Informática e Cognitivismo — a inteligência artificial representa o maior perigo.
Por outro lado, é preciso lucidez. Na abertura deste artigo, os números revelam milhões de usuários do ChatGPT — destes, quantos entraram em surto psicótico, cometeram suicídios ou adotando comportamentos lesivos a si ou aos outros? Não se trata de defesa da IA, mas de trabalhar com dados e chegar à cena pública com as melhores evidências para informar e formar. A melhor defesa em relação aos perigos da IA é o conhecimento, não o medo.
ChatGPT Terapeuta?
Chatbots, como ChatGPT, Copilot, Gemini e tantos outros, são aperfeiçoados cada vez mais para se aproximar do uso da linguagem feito pelos humanos. A ambição das Big Techs é chegar ao nível em que uma pessoa não consiga distinguir se está interagindo com um humano ou um robô. Fica fácil entender por que muitos usuários se sentem acolhidos e compreendidos, utilizando esses chatbots como terapeutas. Treinados à base de trilhões de palavras, quase todos os dados textuais disponíveis na web são colocados a serviço do aprendizado desses modelos de linguagem, o que significa dizer que um GPT, como o Copilot, é capaz de se engajar em uma conversa sobre qualquer tema com uma pessoa e se manter nela pelo tempo que for preciso. Não há barreiras linguísticas, não há cansaço e, aparentemente, não há custos.
Porém, é importante entender que o interesse e entusiasmo não passam de protocolos e cálculo estatístico. Nenhum GPT é capaz de empatia, porque não tem consciência nem sentimentos, mas sim um funcionamento regido por lógica probabilística, o que levou o jornalista e escritor Pedro Doria, em uma mesa redonda, a dizer que um GPT é, no fundo, uma calculadora — uma formidável calculadora, diga-se de passagem. Outra questão importante é que um chatbot modula sua interação de acordo com o humano do outro lado, ou seja, é o humano, ainda que não perceba, que dá a direção e o tom da conversa. No fim das contas, uma suposta terapia com um chatbot não passa de uma projeção narcísica, isto é, um espelhamento do eu. Dito de modo simples, não há terapia, mas pode haver apaziguamento temporário, uma diminuição passageira da angústia e do sofrimento.
ChatGPT e a questão do diagnóstico
Para a Psicanálise, o diagnóstico somente é possível sob transferência. Como a IA não tem inconsciente, não é possível a um chatbot assumir posição de um psicanalista. Porém, para terapias e tratamentos de saúde que operam por protocolos, um GPT pode oferecer bons e maus insights. Nesse sentido, mais uma vez, o conhecimento pode fazer grande diferença. Por exemplo, se eu quiser saber a diferença entre depressão sazonal e distimia, posso simplesmente perguntar ao ChatGPT qual a diferença entre uma e outra, e ele responderá tendo como fonte de consulta a Wikipedia ou outra similar, cujas evidências científicas podem ser ausentes ou fracas. Porém, faz diferença se eu pedir para evitar essas fontes e se pesquisar em bases de dados e bibliotecas como PubMed, Lilacs, Scielo e congêneres. Para chatbot online, posso solicitar ainda que o site seja apresentado, tornando possível conferir a informação na fonte. O salto qualitativo é imenso.
Entre flores e espinhos
É importante frisar que há riscos e benefícios no uso da IA, como os GPTs. Porém, essa afirmativa é válida, ainda que em proporções diversas, em relação a toda e qualquer tecnologia. O grande diferencial, no que toca ao uso, reside no grau de letramento que as pessoas e populações conquistam. Assim como somos educados e educamos para o cuidado nas interações do mundo real, o mesmo se aplica ao universo digital. A IA não vai desaparecer, seu desenvolvimento não vai parar e seus usos vão se multiplicar. Não podemos ser acríticos ou desavisados, e o melhor que podemos oferecer, como contribuição no espaço público, em vez do medo, é informação de confiança, alicerçada na melhor evidência científica.