As Inteligências Artificiais (IAs) generativas surgiram com o intuito de resumir textos, mostrar resultados e responder perguntas, sendo possível um diálogo entre usuário e ferramenta. Conversar com alguém sem rosto e que responde com uma aparente paciência, sem julgamentos, tem feito com que algumas pessoas procurem as IAs como uma forma de desabafar ou, até mesmo, substituir um psicólogo no processo de terapia. Profissionais da área, entretanto, explicam que elas não foram programadas para realizar atendimentos e ainda não estão em fase de maturidade capaz de serem utilizadas para tal fim, podendo até mesmo piorar quadros de doenças mentais.
Os chats com IA podem ser acessados de forma rápida, fácil, gratuita e a qualquer momento do dia. Esses fatores, combinados, podem pesar na decisão de escolher falar com a ferramenta em vez de solicitar ajuda profissional, com um psicólogo, conforme explicou Luiz Freitas, professor da Universidade Federal de Mato Grosso (UFMT) e doutor em Teoria e Pesquisa do Comportamento.
As IAs têm a capacidade de mostrar certo tipo de acolhimento e prestatividade, além de, não confrontarem o usuário, como pode ocorrer em uma consulta terapêutica.
“Muitas pessoas que buscam o atendimento psicológico, não buscam porque têm um transtorno. Às vezes, uma pessoa busca ajuda porque ela pode ter algumas dificuldades nas interações, na forma como ela lida com as próprias emoções”, explicou o profissional.
Luiz Freitas, Doutor em Teoria e Pesquisa do Comportamento
O processo terapêutico, quando realizado com um psicólogo, tem a capacidade de confrontar um paciente a fim de fazê-lo pensar, questionar e entender seus próprios sentimentos. Além disso, ele deve ser focado em fazê-lo tomar suas próprias escolhas sem gerar dependência no tratamento. As IAs existentes, entretanto, ainda não têm essa capacidade e podem gerar um vício no paciente.
Conversar com uma IA que sempre concorda ou afirma que o usuário está correto em suas decisões foi um problema enfrentado por uma jovem de 20 anos, estudante da Universidade Federal de Mato Grosso (UFMT). Ao ter problemas no relacionamento, ela não conseguia relatar as situações vividas para sua psicóloga ou suas amigas. Assim, resolveu procurar uma ferramenta de IA generativa.
“Não ajudou muito no começo. Piorou muito minha situação, para falar a verdade. Ela sempre me colocava como a certa da situação e como se eu nunca errasse e me fez criar uma crise ainda maior. Como na época eu ainda não conseguia conversar com ninguém, coloquei um 'prompt' de psicólogo nela, onde via os dois lados e isso melhorou um pouco, mas tenho que admitir que não é o mesmo que um conselho profissional”, explicou a jovem que preferiu não se identificar.
As IAs não entendem realmente o ser humano e não têm capacidade de sentir. O professor e pesquisador em Inteligência Artificial da UFMT, Thiago Meirelles Ventura, explicou as ferramentar funcionam como o corretor de palavras de um celular, que sugere ajustes com base no texto inserido. As IAs generativas, entretanto, têm um potencial um pouco maior, de elaborar textos complexos sobre o assunto, o que transmite a ideia de coerência e faz com que o usuário realmente se sinta em uma conversa com o ser humano.
“As IAs têm a capacidade de estimar de maneira muito mais precisa quais devem ser as próximas palavras. Agora, ele não estima apenas a palavra seguinte, mas milhares delas, mantendo a coerência e coesão. Então o resultado dessas ferramentas é uma sequência de estimativas, baseado tanto no que já foi escrito pelo usuário quanto pelas próprias estimativas gerada pela ferramenta”, explicou o professor.
Thiago Meirelles Ventura, especialista em Gestão de Projetos e Qualidade
O problema delas, porém, é que são sempre confiantes em suas afirmações e têm o risco do que o professor chama de “alucinar”, trazendo informações que parecem certas, quando na realidade são equivocadas, ainda mais quando se trata dos sentimentos e intenções dos seres humanos. “Há casos de erros em diversas áreas, como na Justiça e na academia, e é claro que pode acontecer também sobre conselhos e conclusões sobre a vida de uma pessoa. Então há esse risco”, explicou Ventura.
Existem IAs que propõe atendimento psicológico e cobram valores por isso, entretanto, elas também são de modelo generativo, que elaboram respostas com base no banco de informações presentes na internet. Dentro da psicologia, elas ainda não foram testadas e estudadas e o professor de psicologia afirma que não devem ser utilizadas, pois podem gerar riscos ou até piora em quadros de doenças mentais.
Algo que os dois profissionais concordam é que, a IA tem potencial de ser utilizada no futuro como uma forma de auxiliar nos processos terapêuticos, porém, como ela se configura hoje ainda não é madura o suficiente para tratar psicologicamente de pessoas, mesmo que ocorra com acompanhamento com um terapeuta. Isso incluiria, inclusive, uma questão de ética.
“Eu acredito que existam muitas pessoas que precisam ser ouvidas e tratadas, mas não estão sendo por falta de recursos, pouca instrução, ou até por preconceito em ser paciente de um psicólogo. A Inteligência Artificial pode auxiliar nisso, sendo a porta de entrada para essas pessoas”, afirmou Thiago Ventura.
“Esses modelos podem ser importantes no futuro, mas eles precisam ser testados em pesquisa pré-clínica. Hoje, a gente não acredita que eles vão substituir um profissional. Você teria que ter um modelo que seja específico para isso, ou seja, treinado com bases de dados que sejam específicas. Depois disso, teria que testar para ver o uso e é possível que eles tenham sim uma utilidade. A gente ainda não tá nesse ponto”, finalizou o professor em psicologia Luiz Freitas.