A discussão sobre saúde mental é um dos grandes debates da contemporaneidade, especialmente depois da pandemia de Covid-19, quando o confinamento nos obrigou a romper, por um período, com as lógicas de sociabilidade no trabalho, na família e nos demais círculos a que estamos acostumados cotidianamente. Com a crescente disseminação de ferramentas de inteligência artificial generativa nos últimos dois anos, não era difícil de se imaginar que esses dois mundos, aparentemente distantes, se cruzariam em algum momento.
É exatamente o que está acontecendo com o uso de IA para simular sessões com psicólogos, detectado por alguns relatórios e estudos, mostrando que questões psicossociais e máquinas estão cada vez mais entranhadas. Um artigo recente da revista Harvard Business Review, intitulado "Como as Pessoas Estão Realmente Usando a IA generativa", é um deles e revela que "terapia e companheirismo" estão no topo do ranking, seguidos por "organização da vida" e "encontrar um propósito".
Em outros termos, como o próprio artigo sugere, os usos recentes da IA estão mais relacionados a padrões comportamentais íntimos do que a questões de produtividade no trabalho. É como se as pessoas vissem no ChatGPT uma espécie de terapeuta ou amigo que pode auxiliá-las a melhorar o bem-estar, escutando problemas e impulsionando reflexões existenciais.
Os dilemas em torno disso são muitos. Um chatbot não tem acesso ao seu histórico e à sua bagagem de vida, o que implica diretamente na progressão do tratamento e na escolha de abordagens e focos personalizados. Também não observa nuances de expressão facial e postura, como um profissional durante uma sessão com seu paciente, e não tem a dimensão ética e o sigilo profissional dessa relação. Simplesmente porque estamos falando de máquinas, e não de seres humanos —máquinas otimizadas para reagir a nossos sentimentos e promover a sensação de acolhimento, mas não para entender de fato o nosso contexto e as dificuldades por que passamos.
Há, ainda, questões referentes à própria IA: essas tecnologias podem trazer informações enganosas ou inventadas, que reproduzem vieses e discursos bastante problemáticos. Ademais, os dados nela inseridos não estão necessariamente protegidos, o que significa que podem ser copiados ou vazados. E, se estamos tratando de questões íntimas e sensíveis, a privacidade é fundamental.
Ciente do cenário, o Conselho Federal de Psicologia emitiu, no início do mês, um posicionamento sobre inteligência artificial e prática psicológica, em que afirma que criou um grupo de trabalho para elaborar diretrizes específicas sobre o tema.
É sabido que o acesso a tratamentos psicológicos é escasso e pode ser demorado no SUS. Tratamentos particulares, por sua vez, são caríssimos em um país extremamente desigual como o Brasil. A possibilidade de "conversar" gratuitamente a qualquer hora e sem julgamentos com "alguém" sobre seus problemas pessoais acaba sendo bastante sedutora para muita gente. Mesmo que esse "alguém" seja uma tela em branco.
Cuide-se
Ciência, hábitos e prevenção numa newsletter para a sua saúde e bem-estar
Há muitas causas para os atuais níveis de adoecimento mental —não só o isolamento de uma sociedade pós-pandemia que é crescentemente digital, e cujos espaços de convivência online podem ser hostis, mas também um contexto de guerras, crise ambiental e precarização do trabalho.
A aparente naturalidade com que essas máquinas dialogam conosco, suas respostas empáticas e, mais do que isso, um mercado que as apresenta como humanóides amigáveis ou fofos, convertem-se em uma armadilha para os que estão mais vulneráveis. Uma educação digital fortalecedora deve lançar um olhar crítico sobre essas tecnologias e como elas funcionam, desconstruindo um imaginário que as apresenta como "quase humanas", e evitando os riscos que podem resultar disso.