
Há um misto de curiosidade e fascínio quando a OpenAI anuncia que o ChatGPT promete ser “mais humano” novamente. A proposta desperta tanto entusiasmo quanto ceticismo: afinal de contas, o que realmente significa humanizar uma inteligência artificial?
Muitos usuários reclamaram da desumanização do ChatGPT, que começou a responder a tudo de forma tão seca e direta, que teve uma galera que optou por obter respostas com a sogra. E isso mostra como tem gente carente por aí.
O grande problema da OpenAI é que ela quer humanizar a sua plataforma de inteligência artificial através de métodos um tanto quanto questionáveis, incluindo é claro a erotização da plataforma, um assunto que já foi muito comentado neste blog.
Vamos tentar entender o que Sam Altman quer dizer com a volta do ChatGPT “mais humano”.
Por uma inteligência artificial mais empática
Durante anos, a tecnologia vem tentando reproduzir empatia e espontaneidade, mas, ao fazer isso, enfrenta o dilema de parecer “artificialmente humana”. A promessa atual parece ir além da técnica — ela tenta resgatar o carisma e a personalidade que foram progressivamente podados por políticas de segurança e padronização de comportamento.
Os primeiros modelos realmente tinham um brilho diferente. Conversar com o ChatGPT 4, por exemplo, era sentir que havia um toque de naturalidade nas respostas — pequenas hesitações textuais, ironias leves, e até expressões de humor sutis.
Quando a OpenAI passou a limitar essa expressividade, o assistente se transformou num consultor educado e previsível. Essa mudança dividiu o público: alguns usuários apreciaram a neutralidade, mas muitos sentiram falta da “voz” que tornava as conversas mais vibrantes.
O próprio Sam Altman, CEO da OpenAI, reconheceu que a IA havia ficado “bastante restritiva”, um eufemismo elegante para dizer que ela perdeu o charme. E agora, a empresa promete devolver esse traço.
Mas a questão permanece: é possível equilibrar personalidade e responsabilidade sem escorregar em exageros? Afinal, quanto mais “humana” uma IA se mostra, mais delicado se torna o limite entre conversa empática e confusão emocional.
Dá para “reintroduzir emoções” em algo que “nunca teve emoção”?
Reintroduzir emoções aparentes, tons de humor e até sarcasmo programado pode transformar a experiência do usuário, mas também reorganiza a própria relação entre homem e máquina.
A impressão que fica é que Sam Altman quer recriar a experiência com a inteligência artificial para que ela se torne algo mais próximo do que encontramos no filme “Ela”, dirigido por Spike Jonze (do qual Sam é fã confesso).
É claro que uma adaptação completa de experiência de uso depende também da adaptação da interface homem-máquina, onde as interações por voz no lugar de vídeos assumem o protagonismo na hora de sugerir prompts para a IA.
Porém, a linha tênue entre a responsabilidade de oferecer um ambiente seguro nas plataformas e a melhor interação das plataformas com o usuário precisa ser cuidadosamente traçada, pois a empatia digital é poderosa — e facilmente manipulável.
Se o ChatGPT voltar a ter “voz própria”, isso pode redefinir como o público percebe a autenticidade de respostas geradas por código.
O desafio, portanto, não é apenas técnico. É também ético e emocional.
A promessa de um ChatGPT “mais humano” exige uma reflexão sobre o que, de fato, queremos em um companheiro digital: uma mente que ajuda com eficiência ou uma que ecoa os nossos traços de humanidade?

