
Isso aqui mais parece uma narrativa de um filme roteirizado pelo Stanley Kubrick (que iria adorar escrever essa história bizarra, ainda mais com sua personalidade perturbada). Mas é um fato real, que aconteceu recentemente. E é algo assustador.
Em uma mansão avaliada em US$ 30 milhões com vista para a ponte Golden Gate, cerca de 100 especialistas em inteligência artificial — incluindo filósofos, tecnólogos e empresários — participaram de um evento chamado Digno Sucessor, cujo tema central foi a possibilidade da IA substituir a humanidade após sua extinção.
Organizado por Daniel Faggella, fundador da Emerj AI Research, o encontro teve foco filosófico e moral: se os humanos desaparecerem, que tipo de inteligência deveríamos deixar no comando?
Como esse encontro aconteceu?

Faggella, que discute esse tema desde 2016, convidou nomes de peso do setor, incluindo fundadores de startups de IA avaliadas em até US$ 5 bilhões e membros de laboratórios que pesquisam AGI (Inteligência Artificial Geral).
Embora a lista de participantes não tenha sido tornada pública, o anfitrião garantiu a presença de representantes de grandes empresas, estrategistas políticos e pensadores reconhecidos do campo.
As discussões não se centraram em como ou quando a humanidade deixará de existir — algo tratado como certo pelos presentes —, mas sim no tipo de sucessor que deveríamos projetar: consciente, ético e evolutivo.
Faggella defende que essa superinteligência deve ter duas qualidades essenciais: consciência e autopoiese, ou seja, a capacidade de se transformar e gerar novas experiências.
Durante o evento, três palestras abordaram as implicações éticas dessa transição.
A escritora Ginevra Davis falou sobre a dificuldade de transmitir valores humanos à IA, defendendo o chamado “alinhamento cósmico”: criar uma inteligência que busque princípios universais ainda não compreendidos.
O filósofo Michael Edward Johnson alertou para os riscos de confiar em IAs que não compreendemos plenamente e propôs que humanos e máquinas deveriam ser educados juntos para “buscar o bem”.
Faggella, por fim, reiterou que a humanidade tem a obrigação de criar um sucessor moralmente digno, prevendo uma transição pós-humana inevitável.
Seremos substituídos por uma IA?
Eu não duvido disso, mas as principais mentes da humanidade não são unânimes neste entendimento.
A tese de que uma AGI poderia acabar com a humanidade é controversa e carece de evidências empíricas. Personalidades como Bill Gates, Elon Musk e Sam Altman chegaram a alertar sobre os riscos reais desse cenário se tornar uma realidade prática, mas muitos especialistas veem essas afirmações como especulativas ou mesmo estratégias de marketing para atrair investimentos.
Pesquisas recentes indicam que os sistemas de IA ainda enfrentam dificuldades em tarefas básicas de raciocínio, o que contraria a ideia de uma superinteligência iminente. Nenhuma plataforma possui consciência, pensamento crítico ou sequer entende sarcasmo e ironia.
E é aqui que está o perigo, na opinião de muitos especialistas: a inteligência artificial reproduz o comportamento humano, por consequência dos dados coletados e treinamento com usuários reais.
Quando essa super inteligência artificial se tornar autoconsciente de tudo, pode concluir que o grande problema da humanidade é o próprio ser humano. E sem regras definidas para os limites desse entendimento, a IA pode sim substituir e até acabar com a humanidade.
É tipo o Ultron, só que em um robô da Boston Dynamics.
Apesar disso, o discurso do medo e da sucessão pós-humana permanece como um tema sedutor, ainda que pouco fundamentado na realidade atual.
Para Faggella e seus convidados, imaginar esse futuro é mais do que um exercício intelectual: é uma missão moral.
Via Wired

