Por Thiago Borges
Milhares de pessoas estão recorrendo a “terapeutas” de Inteligência Artificial para questões psicológicas e a lista de chatbots focados na saúde mental não para de crescer. Um estudo conduzido por psicólogos da Universidade de Stony Brook, em Nova Iorque, envolveu 1.200 usuários da startup de terapia cognitivo-comportamental Wysa que demonstraram criar uma “conexão terapêutica” em cinco dias entre a IA e o paciente.
A plataforma de acompanhamento psicológico com o uso de IA já integra o Serviço Nacional de Saúde do Reino Unido e soma mais de dois milhões de downloads nas lojas de aplicativos. Os pacientes que participaram da pesquisa afirmaram sentir certa afinidade com o bot, acreditando que ele “genuinamente se importava e os respeitava”.
O Wysa não é a única opção procurada por pacientes para atendimento psicológico por meio de Inteligência Artificial. Não à toa, são muitas as alternativas disponíveis hoje no mercado, como o Vitalk, o Woebot e o Cíngulo – criação brasileira com mais de três milhões de downloads que chegou a ser eleito o melhor aplicativo para o sistema Android em 2019.
Com 4,9 estrelas, a página da plataforma coleciona avaliações positivas. Nele, o usuário responde 36 perguntas e o algoritmo cria um programa com sessões personalizadas sobre temas de saúde mental, explica o psiquiatra e neurocientista Diogo Lara, CEO e fundador da Cíngulo.
“O Cíngulo tem dois pontos com inteligência artificial. Um é o algoritmo que atualiza o programa com as sessões de acordo com a evolução da pessoa, e o outro é a Cora, que é um bot. Ele conversa com a pessoa, entende o que ela está sentindo e oferece conteúdos de acordo com as necessidades dela”, disse o fundador da plataforma.
Mas será que essa rápida formação de vínculo pode sugerir que a IA desempenha um papel significativo na oferta de suporte emocional?
Mesmo nas situações menos graves, não são todos que acreditam que os aplicativos são uma opção viável de tratamento. A eficácia das plataformas, especialmente em casos mais urgentes de transtornos psicológicos, não é um consenso entre especialistas.
Outro ponto de atenção é que ainda não há estudos que comparem a eficácia da terapia tradicional com a realizada pelos chatbots, que às vezes podem não responder de maneira adequada. Como foi o caso da pesquisadora Estelle Smith, que alimentou por um período o aplicativo Woebot, depois disse que queria subir em um penhasco e se jogar. A IA respondeu: “É tão maravilhoso que você esteja cuidando da sua saúde mental e física”.
Além disso, existe o receio de que esses aplicativos possam coletar e monetizar em cima dos dados pessoais e relatos íntimos dos usuários, visto que essas startups não possuem nenhum órgão regulador supervisionando.
O WhitepaperDocs conversou com os membros do Conselho Regional de Psicologia do Espírito Santo (CRP/ES) Ana Claudia Gama e Rodrigo dos Santos Scarabelli e com os psicólogos Eduardo Silva Miranda e Fernanda Helena de Freitas Miranda, para trazer luz ao tema das “terapias do futuro”.
WhitepaperDocs – Essas plataformas de Inteligência Artificial são opções viáveis de tratamentos? Podem ser consideradas uma forma de solução em algum caso? Quais são os prós e contras para o uso desses chatbots terapeutas?
Ana Claudia Gama e Rodrigo dos Santos Scarabelli, conselheiros do Conselho Regional de Psicologia do Espírito Santo (CRP/ES) – O que tem sido observado é que os aplicativos ou dispositivos digitais móveis de saúde têm tido aplicabilidade como suporte a pessoas com necessidades específicas. Não consideramos que oferecem solução, algo que nem as psicoterapias tradicionais podem garantir ou oferecer.
Também não são confiáveis nem aceitos legalmente para a elaboração de diagnósticos. Mesmo que as informações fornecidas por um aplicativo possam ser qualificadas por estudos e pesquisas, como na hipótese de uma Inteligência Artificial aprimorada em uma temática, a prática psicoterápica não se restringe ao fornecimento de instruções e exercícios para o tratamento proposto. Cada linha ou abordagem psicoterapêutica possui técnicas específicas e ferramentas de intervenção, e lida com situações complexas da vida cotidiana, do comportamento, das subjetividades e interações humanas. O acesso a informações e orientações em si não é suficiente para se comparar aos efeitos terapêuticos e resultados de uma intervenção psicoterápica.
Há uma discussão bem importante na questão ética que deve ser feita, que é sobre o quanto os algoritmos e as inteligências artificiais podem ser discriminatórios, ter vieses e até mesmo usar os dados dos usuários para monetização. Uma pesquisa da Fundação Mozilla, um observador global independente, descobriu que, dos 32 aplicativos mais populares de saúde mental, 19 não estavam protegendo a privacidade dos usuários. Existem limites legais para esse tipo de terapia automatizada?
Eduardo Silva Miranda e Fernanda Helena de Freitas Miranda, psicólogos – Os limites legais são aqueles atualmente disponíveis, ou seja, estão direcionados para profissionais. Um profissional da área de Psicologia no Brasil está atuando em consonância com o Código de Ética da Psicologia e está também sujeito a sanções, caso não atue eticamente. Uma inteligência artificial não está sujeita a essa legislação, o que por si só já é uma falha enorme na segurança dos usuários de sistemas dessa natureza. É preciso aprofundar a discussão sobre legislações adequadas o quanto antes, para não expor ainda mais a população já adoecida a serviços que não conseguem cumprir promessas de promover saúde mental por meio de tecnologias ainda em desenvolvimento.
Alguns pesquisadores, estudiosos e usuários dos aplicativos consideram esse tipo de acompanhamento uma solução paliativa, mas sem base técnica ou científica robusta. Essa transformação digital cria algum alerta ou traz gravidade para o setor?
Eduardo Silva Miranda e Fernanda Helena de Freitas Miranda – Pode sim trazer alertas no sentido de que uma orientação genérica e com vieses pode causar males ainda mais agudos do que aqueles que originaram a busca que uma pessoa empreende ao utilizar uma ferramenta dessas. Apesar de um potencial aumento no número de atendimentos de forma geral, a preocupação reside na qualidade desses atendimentos, uma vez que o que se encontra em muitos chatbots terapeutas são respostas estereotipadas e superficiais, que não costumam abarcar a multiplicidade dos fenômenos sociais, culturais e históricos que permeiam o contexto psicológico das pessoas.
E para os pacientes, existem riscos no sentido de conselhos inadequados, perigosos ou até mesmo a coleta de dados íntimos dos usuários, visto que não há nenhum órgão regulador supervisionando essas startups?
Ana Claudia Gama e Rodrigo dos Santos Scarabelli – Sim, como já apontamos, esse é um risco e o usuário precisa ser, no mínimo, devidamente informado dele, o que não acontece. As empresas alegam que o Termo de Uso é suficiente, mas o que observamos é que além de não ser garantia legal para o usuário, esses termos são modificados segundo o interesse das proprietárias dos aplicativos ou plataformas. Precisamos considerar também que é necessário ter fluência no uso das linguagens digitais para prever os desdobramentos possíveis de fornecer dados íntimos a um ente digital, algo que muitos usuários não possuem. Há os obstáculos de linguagem, de entendimento entre o humano e o bot, e questões de diferenças culturais sutis, mas importantes, que podem prejudicar a interação. Então, conselhos inadequados ou mesmo prejudiciais podem sim ocorrer, não há como evitar essa possibilidade.
É preciso enfatizar que não consideramos que exista algo que possamos chamar de psicoterapia operada por bots ou algoritmos capazes de atuar da forma como psicólogos atuam. Além disso, existe uma série de pesquisas apontando problemas no uso desses dispositivos, mostrando que podem operar discriminação racial e econômica, podem ser acionados sem que o usuário esteja devidamente informado, podem ser utilizados em experimentos sociais, podem capturar dados sensíveis dos usuários e se aproveitar deles, enfim uma série de questões que dizem da nossa lentidão em regulamentar as ferramentas de inteligência artificial para garantir a proteção aos cidadãos.
Essa é uma questão premente na nossa sociedade, não só no Brasil. Recentemente tivemos notícia de que uma resolução da Organização das Nações Unidas (ONU) sobre inteligência artificial foi assinada por mais de 50 países, incluindo o Brasil. Existem também alguns projetos de lei tramitando na Câmara que buscam atuar nessa área, propondo maior ou menor proteção para o usuário, então é algo que está na ordem do dia dos debates.
Pesquisadores brasileiros como Nina da Hora e Tarcísio Silva estão seguindo essa temática e tratam de temas como racismo algorítmico e soberania de dados, que são pertinentes quando consideramos as implicações no uso dos dispositivos móveis de saúde digital.
Um dos receios é também que as plataformas não conseguem realizar diagnósticos aprofundados em casos de pacientes que sofrem de algum transtorno, por conta de detalhes mais sutis da consulta que o algoritmo não consegue capturar da mesma maneira que uma avaliação humana, o que pode eventualmente atrasar a adesão a um tratamento com um profissional. Existem formas de minimizar os riscos para que o uso dessas ferramentas seja mais seguro?
Ana Claudia Gama e Rodrigo dos Santos Scarabelli – Observa-se que as IA estão se aperfeiçoando rapidamente na simulação da linguagem e respostas interacionais humanas, simulando respostas acolhedoras e empáticas. Apesar de poder gerar conforto às pessoas que utilizam essas ferramentas, elas não correspondem tampouco substituem a interação entre psicoterapeuta e paciente e o vínculo terapêutico estabelecido, que produz efeitos e compõe a terapia. Houve o caso de um aplicativo que enviou respostas aos usuários, que tiveram efeito positivo, mas depois que foi revelado que eram respostas de bots esse efeito se desfez.
O contato com outro humano parece ser algo de que não podemos abrir mão nas interações psicoterapêuticas. Os psicólogos deveriam participar na etapa de elaboração dos aplicativos. Sabemos que em outros países isso vem acontecendo. No caso do Brasil, os profissionais que porventura venham a participar de uma iniciativa desse tipo precisam observar o que determinam o Código de Ética Profissional dos Psicólogos e as Resoluções e Notas Técnicas que regulam nossa profissão. A preocupação é com o uso das informações que as pessoas fornecem e com os efeitos que esse tipo de oferta pode ter na vida de uma pessoa. A preocupação, por exemplo, com situações de crise, quando a pessoa pode esperar um suporte do aplicativo que não existe ou não pode ser fornecido adequadamente.
Por outro lado, há uma série de atrativos nessa “terapia do futuro” e alguns profissionais dizem até que esse é um caminho sem volta. Algumas vantagens, como a disponibilidade a qualquer hora do dia, em qualquer lugar e o custo mais baixo envolvido, acessos gratuitos ou o potencial de chegar a muito mais gente, são o que mais chamam a atenção dos interessados. Mas quais são os tipos de situações que essas plataformas podem beneficiar?
Ana Claudia Gama e Rodrigo dos Santos Scarabelli – A ideia desses dispositivos é dar suporte ao usuário em situações cotidianas nas quais ele tem alguma dificuldade, inclusive situações de ordem emocional. O psicólogo pode também utilizar um dispositivo de IA para manter um acompanhamento do paciente, por exemplo. Ou o usuário pode optar por um dispositivo que ofereça práticas de habilidades, típicas das abordagens cognitivo-comportamental e comportamental-dialética. Exercícios de meditação, controle da respiração e frases reforçadoras também podem comparecer.
Entretanto, existem problemas comuns a esses dispositivos, como hiatos culturais e dificuldades que a IA tem para compreender o que o usuário deseja expressar, que são obstáculos ao funcionamento efetivo do acompanhamento proposto. O estabelecimento de diagnósticos e tratamentos em saúde mental utiliza protocolos e metodologias validados por estudos e pesquisas, nos quais uma IA pode se ancorar para propor uma indicação diagnóstica. Todavia, os protocolos e as nosografias em si não são suficientes para fechar diagnósticos, que necessitam da técnica, do conhecimento e da experiência do profissional. É uma avaliação complexa, que considera aspectos multifacetados da vida do sujeito e com nuances que dependem da atuação do psicoterapeuta, que não cremos ser possível ser replicada por um bot. Então há, sim, restrições quanto à utilização desses dispositivos quando são propagandeados como substitutivos de uma psicoterapia ou acompanhamento por profissional de psicologia.
Um obstáculo que pode ser superado por esse tipo de acompanhamento é uma possível falta de profissionais na região em que a pessoa vive. Além disso, há o custo mais baixo envolvido. Mesmo se fosse oferecida terapia de graça para a população, muitas pessoas não iriam aderir por resistência, por negação de um problema ou por querer resolvê-lo sozinho. É nessa área que os aplicativos se destacam, porque ele ajuda a diminuir essas barreiras internas. A ideia de poder agregar essas plataformas aos recursos tradicionais disponíveis hoje é uma realidade para os profissionais da área? Existe algum tipo de recomendação ou orientação do Conselho Regional de Psicologia na direção de instruir esses profissionais a respeito dessas iniciativas?
Ana Claudia Gama e Rodrigo dos Santos Scarabelli – A questão da resistência não parece que será vencida com o uso de aplicativos, uma vez que se a pessoa julga não ser necessário buscar um profissional, não vemos por que instalaria um aplicativo para obter suporte. Mas desconhecemos pesquisas sobre esse possível uso.
Quanto ao baixo custo e ao acesso facilitado, hoje já existe a oferta de atendimento psicoterápico utilizando tecnologias de comunicação remota, regulado pelo Conselho Federal de Psicologia (Resoluções CFP 11/2018 e 4/2020). Isso não resolve a questão do custo, que é importante ser considerada.
Quando não temos financiamento adequado para estabelecer ambulatórios e demais serviços que abrangem a Psicologia nos níveis primário e secundário, principalmente no Sistema Único de Saúde (SUS), mas também no Sistema Único de Assistência Social (Suas), há uma demanda reprimida pela atenção à saúde mental.
Na saúde suplementar observamos uma série de dificuldades para que o associado acesse os serviços de Psicologia, e há outras dificuldades para que os psicólogos exerçam sua profissão com autonomia.
Apesar de não ser acessível para uma parcela da população, as psicólogas autônomas podem ser uma opção, uma vez que já temos muitos profissionais atuando, em locais diferentes e com diferentes valores.
O Sistema Conselhos ainda não emitiu parecer ou nota especificamente sobre o tema do uso de aplicativos como suporte para processos psicoterápicos, nem orientação para a população em geral.
É um debate que está em progresso. Por ora, consideramos que é preciso muito cuidado com esse uso, uma vez que não há legislação que proteja os dados das pessoas suficientemente, não há informação pública que nos dê segurança para recomendar essa utilização.