
Como estamos cada vez mais isolados em um mundo totalmente conectado (algo até ambíguo, se você parar para pensar), as práticas que se valem da manipulação emocional para enganar outras pessoas estão se tornando cada vez mais frequentes.
Uma nova onda de aplicativos de vídeo impulsionados por inteligência artificial está se espalhando pelas lojas de aplicativos, oferecendo aos usuários a capacidade de gerar beijos, abraços e cenários fantasiosos usando imagens carregadas.
Isso pode parecer meio absurdo para aquelas pessoas que contam com a cabeça minimamente no lugar, mas está se tornando algo cada vez mais frequente, com efeitos devastadores para aquelas pessoas que são afetadas por tal prática.
O que está acontecendo?
Promovidos por meio de anúncios frequentemente sugestivos em plataformas como TikTok e Instagram, aplicativos como Boom.AI, DreamVid e VideoAI permitem que os usuários simulem cenários íntimos ou modificados, incluindo a alteração de características corporais ou “abraçar” personagens fictícios.
Temos aqui uma espécie de “deepfake 2.0”. No lugar de simplesmente substituir o rosto de alguém por algum conhecido, a outra pessoa (ou qualquer pessoa) pode ser colocada em contextos ou situações de forma não desejada, com a justificativa
Mesmo que essas ferramentas ofereçam funções aparentemente inofensivas, como mudar a cor do cabelo ou posar com personagens de anime, muitos modelos tendem para um território hipersexualizado e com viés racial, levantando preocupações éticas.
Esses aplicativos frequentemente monetizam por meio de micro transações e assinaturas pagas, apesar de sua moderação de conteúdo questionável e legalidade obscura sob as atuais leis de deepfake e réplicas digitais.
O problema ético, que gera ambiguidade e desconforto
Ao contrário de plataformas de IA mais regulamentadas, como o Sora da OpenAI ou o Veo do Google, esses aplicativos ignoram verificações de consentimento e filtros de idade, facilitando o uso indevido.
O grande problema aqui está na normalização preocupante do uso de IA para simular intimidade sem consentimento, além dos usos mais complexos nos aspectos emocionais — como indivíduos enlutados criando vídeos de IA de entes queridos falecidos — que não são inerentemente prejudiciais.
Tem que existir algum limite previamente estabelecido aqui. Apesar de alguns pontos que não necessariamente envolvem os aspectos éticos, existe o impacto emocional direto que a prática pode causar, tanto no usuário afetado quanto ao usuário que, em alguns casos, procura apenas se sentir melhor com a realidade que o cerca.
Mas o grande impacto dessa prática é mesmo o desconforto e a ambiguidade em torno desses aplicativos. Aqui, é importante levantar questionamentos sobre as motivações da sociedade por trás do envolvimento com tais criações digitais.
A proliferação dessas ferramentas levanta questões sobre os limites do uso da IA na simulação de relações humanas e a necessidade de regulamentações mais claras para proteger os indivíduos contra representações não consensuais.
Para muitas pessoas, é simplesmente aterrorizante pensar que alguém está manipulando a sua imagem a ponto de inserir terceiros em uma realidade que simplesmente não existe, apenas e tão somente para atender anseios e flagelos emocionais (que deveriam ser tratados na terapia).
E esse é o tipo de cenário que pode atingir a qualquer pessoa, a qualquer momento.
Logo, isso deveria entrar em discussão em algum momento, independentemente do que se pensa sobre os direitos individuais.
Via The Verge

