Sim. A Inteligência Artificial (IA) tomou de assalto todas as áreas da humanidade, resolvendo em poucos segundos problemas complexos. Inclusive a “ressureição” de pessoas que já faleceram para ajudar no processo de luto.
Entendo que viver o luto é algo individual, e não existe uma “receita de bolo” para a questão. Mas não posso negar que a tecnologia existe para ajudar as pessoas, e se essa é uma solução que acalma a alma de alguns, não vejo muitos problemas no uso da estratégia.
De qualquer forma, é importante observar os efeitos práticos do uso da IA para devolver a vida para quem já partiu, pois algumas pessoas podem vir a sofrer ainda mais ao retardar o aceitar da realidade.
Conversando com o filho morto
Alguns usuários estão compartilhando no TikTok tutoriais sobre como utilizar as plataformas de IA para “conversar” com os familiares já falecidos, como uma forma de lidar com a perda de um ente querido.
O usuário @davidhosting criou uma IA na plataforma Character.ai, especializada em simular personalidades. Ele conseguiu recriar o comportamento do seu filho falecido, inserindo dados como nomes de amigos, características pessoais e manias para tornar a interação a mais realista possível.
O @davidhosting foi além das interações por texto, e integrou a voz do seu filho na programação via IA para que uma conversa auditiva fosse possível. Dessa forma, a plataforma consegue responder de forma mais realista e até coerente com o usuário.
Nem preciso dizer que a ideia dele viralizou rapidamente no TikTok levantando a discussão que motivou a produção deste artigo.
Aspectos positivos e negativos
Essa prática de emular a personalidade de pessoas falecidas já recebeu um nome: os ‘deadbots’. E a polêmica foi servida tão rápido quanto viralizou nas redes sociais.
De fato, o uso de uma IA para reproduzir a personalidade de quem partiu pode sim ajudar no processo de luto. Com o passar do tempo, a tendência é que a pessoa aceite que o ser amado não vai voltar, e o desapego à conversa virtual acontece de forma mais orgânica.
Por outro lado, também pode acontecer exatamente o contrário.
Especialistas em saúde mental e psicologia estão preocupados sobre a possibilidade do enlutado de criar uma dependência emocional ao parente construído por IA, impedindo que o processo de luto avance no seu curso natural.
O que não podemos negar é que o uso da Inteligência Artificial para fins emocionais é uma tendência crescente. E não precisa ser necessariamente nos momentos de luto: muitos jovens estão utilizando o Character.AI em modo de psicólogo ou terapeuta para resolver problemas de ansiedade e depressão.
O grande problema disso está (obviamente) nas implicações éticas e psicológicas do uso da IA como terapeutas ou ferramentas para curar as dores emocionais. Não podemos nos esquecer que essas plataformas coletam os dados dos usuários o tempo todo, e não sabemos como essas informações serão utilizadas no futuro por essas empresas.
E aqui, temos mais um motivo para uma regulamentação das plataformas de IA, tal e como acontece em vários outros setores da nossa sociedade. Considerar o impacto na saúde mental do coletivo deveria ser uma preocupação de todos, e não apenas dos especialistas.
Se não podemos negar a existência da IA (e não devemos mesmo, pois sempre vou defender o uso da tecnologia como solução para o avanço da humanidade), ao menos podemos estabelecer as regras de uso.
Não quero que o ChatGPT seja o meu terapeuta no futuro. Se ele (ainda) não entende contexto e ironia, que dirá o que se passa na minha mente.