Início » Tecnologia » Por que vários anúncios da Amazon estão aparecendo com o título Lamento, mas não posso atender ao seu pedido porque viola a política da OpenAI.”?

Por que vários anúncios da Amazon estão aparecendo com o título Lamento, mas não posso atender ao seu pedido porque viola a política da OpenAI.”?

Compartilhe

Que todo mundo está usando a Inteligência Artificial para ganhar dinheiro, isso não é uma novidade. Mas é importante que as pessoas tentem ao menos disfarçar o seu uso. As pessoas estão percebendo as gambiarras.

Uma captura de tela recente no Amazon.com revela que vários produtos compartilhavam o mesmo nome de produto: “Lamento, mas não posso atender ao seu pedido porque viola a política da OpenAI.”

O mesmo está acontecendo para descrição de produtos que mostram informações absurdas, evidenciando que tem gente que está abusando no uso do ChatGPT para desenvolver suas tarefas diárias.

 

O que está acontecendo?

Esse nome, “Lamento, mas não posso atender ao seu pedido porque viola a política da OpenAI.”, apareceu no título e na descrição de vários produtos. Alguns deles já foram removidos pela Amazon.

Outras descrições incluem detalhes como um texto padrão para anúncios na loja online, como se fossem produzidos pelo ChatGPT como resposta. Por exemplo, “Nosso [produto] pode ser utilizado para diversas tarefas, como [tarefa 1], [tarefa 2] e [tarefa 3], o que o transforma em um complemento versátil para o seu lar.

Quando a Amazon tomou conhecimento do que estava acontecendo, removeu os produtos rapidamente. A busca dos mesmos produtos no eBay revelou que nem todos foram eliminados, onde muitos itens contavam com imagens geradas por computador, muito provavelmente pelo modelo DALL-E.

 

ChatGPT criando produtos falsos

Usar o ChatGPT para escrever o seu anúncio não é um grande problema. O que (muito provavelmente) está acontecendo é que estão utilizando a IA para criar produtos falsos ou que não existem.

A tendência se repete no X, com vendedores utilizando bots para gerenciar contas e o ChatGPT para descrever produtos e respostas automatizadas. Pesquisar o termo “goes against OpenAI’s content policy” revelou respostas padronizadas de contas em X, todas indicando violação da política de conteúdo da OpenAI.

 

A OpenAI contra-ataca

Diante do cenário, a Open AI decidiu restringir o uso do ChatGPT, que está mais rígido na detecção de atividades que violam as políticas de uso da empresa. Na prática, as frases mencionadas nos anúncios se tornaram genéricas, o que facilitou a identificação das fraudes.

Tais descrições falsas geram desinformação para os clientes, resultando em potenciais fraudes. O mesmo método foi utilizado para a disseminação de notícias falsas e ideias extremistas.

É um cenário de dualidade no uso da Inteligência Artificial, que melhorou a vida dos profissionais, mas mostra o potencial para atos fraudulentos e de desinformação.

O que, de forma inevitável, reforça a necessidade de regulação da plataforma, onde as normas de uso precisam ser estabelecidas para superar os cenários de controvérsia ética que estão aparecendo constantemente.

Mas há quem diga que tudo precisa permanecer do jeito que está: livre, leve e solto. Mas essas pessoas não querem lidar com as consequências dos estragos provocados.


Compartilhe