
Estamos tão fragilizados com a nossa saúde emocional, que estamos procurando a inteligência artificial para terapia individual, psicólogo e, agora, ferramenta para te consolar quando você for chutado pelo seu relacionamento amoroso.
A inteligência artificial Closure foi desenvolvida para ajudar pessoas a superarem términos de relacionamentos, permitindo conversas simuladas com ex-parceiros que desapareceram sem explicações adequadas.
Ou seja, o “ghosting” que você recebe pode ter como lei de compensação uma inteligência artificial para dizer que “foi melhor assim, você vai ficar bem, ele não te merecia”.
Ou te lembrar como você foi trouxa durante o tempo que esse relacionamento durou.
A origem do Closure
A ferramenta nasceu da experiência pessoal da fundadora Anna Iokhimovich, que sofreu com o “ghosting” e desenvolveu o sistema como resposta à necessidade de encerramento emocional quando relacionamentos terminam abruptamente.
O modelo é treinado com centenas de experiências coletadas em fóruns da internet e solicita informações detalhadas sobre o ex-parceiro e o contexto do relacionamento para oferecer respostas mais realistas durante as conversas simuladas.
O sistema funciona coletando dados pessoais sobre a pessoa que terminou o relacionamento e criando um chatbot conversacional que imita o comportamento e as respostas que o ex-parceiro poderia dar, proporcionando um ambiente fictício para diálogo.
Lendo e escrevendo sobre isso, fica a impressão de que a plataforma foi desenvolvida por alguém que ficou realmente magoado com o término do relacionamento.
A ponto de tudo isso soar como algo extremamente assustador. Inclusive para mim, que não se assusta com facilidade com qualquer coisa.
Isso aqui é perigoso?
Em diferentes níveis. Mas vamos por partes.
Especialistas alertam para sérios riscos de privacidade, já que os usuários compartilham informações extremamente íntimas com empresas de tecnologia, revelando pensamentos e sentimentos que normalmente não dividiriam nem com pessoas próximas.
Isso, por si, já é um absurdo. Tanto por parte da desenvolvedora do conceito do Closure, quando por parte da empresa que vai ficar com esses dados pessoais.
Mesmo que os dados sejam utilizados para deixar a inteligência artificial ainda mais eficiente para as questões de empatia, eu duvido que o seu desenvolvedor deixe MUITO CLARO para os seus usuários que os dados serão coletados e reaproveitados para diferentes finalidades.
A ferramenta também levanta preocupações sobre o estado de saúde mental dos seus usuários, pois pessoas que recorrem a esse tipo de solução tecnológica geralmente precisam de acompanhamento profissional, terapia especializada e tratamento adequado às suas necessidades específicas.
O que me parece óbvio, de novo.
Porém, está ficando cada vez mais comum ver as pessoas procurando o ChatGPT para cuidar dessas questões mais emocionais, o que pode sim ser algo perigoso em larga escala a médio e longo prazos.
O uso da inteligência artificial para questões emocionais complexas pode mascarar problemas posteriores mais profundos, como dificuldades para lidar com frustrações e processar perdas de forma saudável.
E tem muitas pessoas com o coração quebrado no mundo, pelos mais diferentes motivos. Estamos mais distantes das pessoas, tanto física quanto emocionalmente.
A popularização desse tipo de ferramenta reflete uma tendência crescente de pessoas que preferem buscar soluções tecnológicas em vez de procurar ajuda profissional qualificada para questões de saúde mental.
Não faça isso. Nunca.
Se você não está bem, procure ajuda profissional e humana.
E… essa dor que você está sentindo…
Ela vai passar.
Acredite em mim!
Via The Verge

