
Enquanto a OpenAI promete devolver ao ChatGPT sua graça, a reação do público mostra um curioso espelho da nossa própria contradição. As pessoas dizem querer autenticidade nas máquinas, mas quando ela aparece, o desconforto é imediato.
É bem engraçado ver boa parte dessa tal humanidade dita racional ficar com medo de algo que, a essa altura do campeonato, já tem uma ideia melhor do que pode acontecer se tudo der muito errado nessa iniciativa.
Será que está faltando explicar melhor como é sim necessário ter uma boa dose de empatia nas máquinas, mas que isso pode resultar em uma dependência ainda maior das plataformas de inteligência artificial para o dia a dia?
#SPOILER: tem gente que nem faz ideia do que escrevi até agora, que dirá se preocupar com isso de verdade?
Pode ser engraçada, mas não irônica
Uma IA que responde com humor é celebrada até o momento em que sua ironia parece “demais”. Uma que demonstra empatia é elogiada, até o ponto em que sua linguagem soa emocionalmente invasiva.
A fronteira entre o cativante e o desconfortável é surpreendentemente fácil de cruzar. E ela sempre vai mudar em função da perspectiva individual sobre as percepções do que é realmente engraçado e aquilo que é absolutamente grotesco.
A empatia programada é uma das maiores conquistas da inteligência artificial moderna. Ela exige o mapeamento de padrões linguísticos e emocionais que permitem à máquina simular compreensão e sensibilidade.
Entretanto, mesmo quando perfeita, essa empatia continua sendo uma projeção: ela não sente, apenas reproduz o que nós sentimos. Não são sentimentos. São repetições de padrões de comportamento.
O ChatGPT, portanto, não é simpático — ele aprendeu o que soa simpático. E o entendimento de simpatia sempre vai variar de pessoa para pessoa.
Faz tempo que estamos nos enganando (e não percebemos isso)?
Nos últimos anos, as interações com assistentes virtuais mostraram o quanto queremos acreditar na ilusão da reciprocidade. Desde o “Hey Siri” até a conversa longa com um bot, buscamos uma sensação de presença que o mundo digital às vezes nos nega.
O novo ChatGPT promete ampliar essa experiência, tornando-se quase um interlocutor. Mas é importante lembrar que, por trás das palavras, não há emoções verdadeiras — apenas algoritmos ajustando respostas com base em bilhões de exemplos de linguagem humana.
Ou seja, não adianta pedir conselhos sobre o seu estado emocional para a inteligência artificial da OpenAI. Nesses cenários, ela pode – inclusive – prejudicar mais a sua saúde mental do que ajudar de forma efetiva e a longo prazo.
O ideal mesmo é procurar um profissional de saúde mental para resolver o seu problema emocional. Terapeuta, psicóloga ou psiquiatra são melhores e mais eficientes do que o placebo que o ChatGPT vai se tornar a partir de dezembro de 2025.
A ironia é que, ao tentar criar máquinas mais empáticas, o ser humano revela a própria carência emocional. Precisamos de IAs com humor e compaixão porque, em muitos espaços, essas qualidades parecem ausentes nas relações humanas.
A tecnologia acaba sendo tanto um espelho quanto um substituto. E talvez seja isso o que mais incomoda: perceber que a inteligência artificial está nos ensinando sobre o que significa ser humano.
Quando a OpenAI fala em tornar o ChatGPT “mais humano”, na verdade, está falando sobre tornar o usuário mais convencido da humanidade da máquina. No fundo, essa transformação é menos sobre o que o ChatGPT é e mais sobre o que nós queremos acreditar que ele seja.
Enquanto debatemos as nuances e diferenças dessa nova fase do ChatGPT, Sam Altman se prepara para receber uma pilha de dinheiro na sua cara. E essa é a parte mais problemática desse processo.

