
A OpenAI anunciou que, a partir de dezembro de 2025, usuários adultos poderão ter conversas eróticas com o ChatGPT — um marco que redefine os limites entre privacidade, tecnologia e intimidade digital.
Para uma plataforma que sempre evitou o conteúdo sexual explicito, reconhecer que outras soluções já estão fazendo isso (e que se ela não fizer o mesmo vai ficar para trás) é até sinal de maturidade por parte de Sam Altman.
Ou mais uma forma de capitalizar em cima do público adulto, tanto no pagamento de mensalidades adicionais quanto no potencial de publicidade que a OpenAi pode vincular aos conteúdos gerados.
A desculpa é a “desumanização” do ChatGPT
O lançamento ocorre após meses de críticas à OpenAI por “desumanizar” as interações do ChatGPT desde a chegada do GPT-5, considerado frio e excessivamente racional. Agora, a empresa tenta restaurar o senso de proximidade emocional, inspirando-se no sucesso de rivais como o Character AI, onde os relacionamentos românticos entre humanos e bots já se tornaram um fenômeno social.
A simulação de conversa mais romântica ou erótica vai acontecer apenas entre os maiores de idade, e eu já começo a duvidar de que realmente vai acontecer dessa forma logo de cara.
Ou o sistema de controle da OpenAI é bom o suficiente, ou vai virar uma busca desenfreada de menores doidos para protagonizar contos eróticos com pitadas do filme “Ela”. Aquele do Spike Jonze que o cara se apaixona por uma inteligência artificial.
Fato é que a OpenAI sabe muito bem que é isso o que as pessoas querem. As plataformas rivais seguem oferecendo a interação mais adulta com os usuários (incluindo a criação de imagens e vídeos NSFW).
Sem falar que estudos recentes mostram que usuários passam até duas horas diárias nesse tipo de interação. E isso aparentemente é bem mais divertido do que ver TV ou jogar videogames ultrarrealistas.
Sam Altman quer a sua fatia do bolo. Nem que para isso transforme o ChatGPT em uma companhia emocional.
O que pode ser perigoso em diferentes níveis.
Privacidade e o preço da erotização
Sam Altman quer tratar “adultos como adultos”, mas para isso acontecer, tem que saber de todo mundo quem é quem para impedir que os menores entrem na brincadeira. E o que vai ter de identidade falsa a partir de agora…
Armazenar dados pessoais — como documentos de identidade e conversas íntimas — aumenta a vulnerabilidade a vazamentos, chantagens digitais e violações de privacidade em larga escala. E eu pergunto: onde o Sam Altman estava quando rolou todo aquele escândalo da Cambridge Analytica com o Facebook?
Prometer protocolos de segurança avançados não é o suficiente. Caso ocorra uma brecha de segurança, milhões de usuários poderão ter suas interações com o ChatGPT, inclusive de teor sexual, expostas.
Posso estar exagerando, mas esse é o caminho do desastre em massa.
E tudo isso está acontecendo em nome do dinheiro, o que beira à uma prostituição institucionalizada.
Não me entenda mal. Não estou dizendo que isso é errado, ou que todo mundo está se comportando como putinha.
Porém, uma falha de segurança, por mínima que seja, pode expor todo mundo ao pior dos cenários. E a OpenAI aparentemente não está dimensionando o que pode vir a acontecer se tudo der errado.
É uma receita para o desastre. Só não vê quem não quer.
Via The Verge

