Quando eu fiz a pergunta “ainda dá para confiar no Sam Altman?”, não estava sendo retórico ou buscando uma maneira engraçada para iniciar um novo artigo. Falei com uma certa dose de seriedade, pois cada vez mais me convenço que a resposta é um retumbante NÃO.
A última da OpenAI: é o Sam Altman que vai liderar o novo Comitê de Segurança e Proteção da empresa, que é responsável pela gestão de riscos em projetos e operações. Na prática, Altman será o juiz e o dono da bola, fiscalizando à ele mesmo nas suas decisões.
Sim… eu sei… isso não faz o menor sentido para você. Para mim, também não. Mas essa é a notícia. E não é uma manchete criada pelo Sensacionalista.
Como isso vai funcionar (se é que vai funcionar)
Altman vai chefiar esse Comitê de Segurança com outros três conselheiros da OpenAI: Bret Taylor, Adam d’Angelo e Nicole Seligman. O objetivo inicial desse grupo é avaliar e desenvolver processos e salvaguardas da empresa em até 90 dias. Ao final desse prazo, o grupo precisa apresentar as recomendações das medidas a serem tomadas para os demais membros do conselho.
Em teoria, técnicos e especialistas em cibersegurança e políticas de gestão farão parte desse comitê, mas isso não dá garantias de que a avaliação será a mais isenta ou realista possível, considerando todo o histórico de Altman e os acontecimentos recentes.
Estamos falando muito nos últimos dias sobre o uso da voz da Scarlett Johansson no ChatGPT, mas Altman aparentemente fez coisas ainda mais questionáveis na sua gestão da OpenAI.
Basta olhar para os sinais
Ele dissolveu o antigo time focado nos riscos existenciais nas plataformas de Inteligência Artificial, indo na contramão do compromisso da OpenAI no desenvolvimento responsável e ético dessa tecnologia. Ao mesmo tempo, a demissão de Ilya Sutskever, ex-cientista chefe da empresa, e de outros pesquisadores importantes mostram a insatisfação com a condução de Altman, que é cada vez mais comercial.
Outra medida controversa de Altman foi a retirada da participação acionária de ex-funcionários que não aceitavam assinar um acordo de confidencialidade considerado rigoroso nos aspectos jurídicos. Sem falar nas acusações de negligência da “cultura e processos de segurança” em prol de lançamentos considerados espetaculares.
Não podemos nos esquecer que foi Sutskever quem tentou remover Altman do posto de CEO sob a alegação de falta de honestidade, e os acontecimentos do passado e do presente parecem confirmar essa teoria.
O “NÃO” parece estar reforçado
A confiança do coletivo de tecnologia em Sam Altman está se tornando cada vez mais frágil com o passar do tempo, e essa decisão em liderar um conselho como esse não melhora em nada a sua imagem junto ao grande público e especialistas em tecnologia.
Essa decisão pode ter o efeito contrário: no lugar de limpar a imagem da OpenAI, vai despertar ainda mais dúvidas se as mudanças reais nas prioridades coorporativas vão mesmo acontecer.
Considerando o fato de que a empresa recém apresentou o GPT-4o (que é uma expressiva melhora no ChatGPT gratuito e de acesso público) e que o GPT-5 está em iminente lançamento, fica difícil acreditar que os profissionais da OpenAI estão com o foco no que realmente importa.
Hoje, Altman é uma enorme distração para a OpenAI. E estou sendo gentil neste aspecto, pois sua presença na empresa está se tornando algo tóxico.