Uma hipótese apocalíptica que desafia a imaginação e que ficou conhecida como “gray goo” está cada vez mais próxima de se tornar uma realidade, alertam especialistas em tecnologia e inteligência artificial (IA).
Originada em um artigo da Fast Company, essa teoria descreve um dos cenários mais sombrios para o futuro da humanidade, onde pequenos bots autorreplicantes consomem desenfreadamente todos os recursos disponíveis, transformando o mundo em uma substância viscosa e cinza.
Sei que algumas pessoas estão com um certo receio em relação ao avanço da Inteligência Artificial em nossas vidas, e eu mesmo me esforço para tentar dissipar essa nuvem de dúvidas. Mas não posso deixar de mostrar o outro lado dessa moeda.
Entendendo melhor o fenômeno “gray goo”
A origem dessa hipótese remonta ao livro “Engines of Creation” de 1986, do cientista Eric Drexler.
Nele, Drexler adverte que nanobots sem mecanismos de controle adequados podem levar a uma catástrofe global, onde o planeta seria engolido por uma massa cinza viscosa, razão pela qual o fenômeno ficou conhecido como “gray goo”.
Curiosamente, essa teoria aparentemente saída de uma narrativa futurista e fantasiosa, encontra eco no atual cenário da inteligência artificial, não no mundo físico, mas sim em seu âmbito digital.
O uso massivo de máquinas de IA treinadas com milhares ou milhões de dados gerados por outras IAs está levando a um preocupante excesso de conteúdo carente de originalidade e criatividade, assemelhando-se à “substância cinza” do apocalipse imaginado.
Particularmente, procuro utilizar os chatbots de Inteligência Artificial com o mínimo de racionalidade. Admito que uso o ChatGPT para desenvolver o corpo dos meus artigos, mas sempre estou revisando os textos, adicionando informações e incluindo fontes de pesquisas complementares para deixar os textos mais pessoais e opinativos, mesmo nas pautas informativas.
A essência desse risco do “gray goo” reside na falta de intervenção humana adequada e no controle do desenvolvimento de IA. Sem sistemas que atuem como ponto central, monitorando e regulando a qualidade e diversidade do conteúdo gerado, corre-se o risco de perpetuar vícios e perder a conexão com a humanidade que a criou.
Nesse contexto, surge um círculo vicioso perigoso, onde o conteúdo gerado com baixa qualidade é utilizado para treinar modelos ainda menos interessantes. Isso se comprova nos problemas que já detectamos nas plataformas de Inteligência Artificial, como o racismo, o sexismo e a tendência de produção de notícias falsas, já que a tecnologia “inventa” informações para completar o contexto de alguns conteúdos.
De quem é a responsabilidade neste caso?
A responsabilidade recai sobre as empresas e instituições que direcionam o desenvolvimento da IA.
A pressa em produzir conteúdo em massa não pode levar a negligência ética. Medidas precisam ser tomadas para evitar a proliferação da “substância cinza”. Isso inclui a implementação de controles éticos rigorosos no desenvolvimento de sistemas gerativos, além de revisão minuciosa dos dados em busca de sesgos e erros.
A advertência de Eric Drexler sobre o crescimento exponencial descontrolado deve ecoar em nossas mentes. Embora a construção real de nanobots para a produção de conteúdo e informação seja uma ideia relativamente distante de nossa realidade prática, a metáfora da “gray goo” é mais relevante do que nunca quando aplicada à inteligência artificial.
O progresso tecnológico precisa caminhar lado a lado com a responsabilidade ética. E a impressão que fica é que a palavra “ética” caiu em desuso no desenvolvimento da Inteligência Artificial.
Mas espero estar equivocado.