Uma enquete gerada por inteligência artificial em uma notícia do The Guardian gerou enorme barulho e debate sobre ética e regulamentação no uso da tecnologia no jornalismo.
No centro dessa controvérsia, está a notícia do falecimento trágico de Lilie James, uma treinadora de polo aquático de apenas 21 anos, encontrada morta com ferimentos na cabeça em Sidney (Austrália). O problema está na enquete no final da matéria, criada por uma inteligência artificial da Microsoft de forma automática.
A reação do público não poderia ter sido mais acalorada, e as palavras usadas nos comentários foram inequivocamente críticas. A maioria dos leitores classificou a enquete como “patética e repugnante.” A notícia, que deveria informar sobre a tragédia, se tornou alvo de repúdio por causa da insensibilidade da enquete.
The Guardian foi pra cima da Microsoft
Anna Bateson, diretora executiva do Guardian Media Group, redigiu e enviou uma carta ao presidente responsável na Microsoft, Brad Smith, criticando veementemente o uso da IA. Em sua mensagem, Bateson destaca o uso inapropriado da IA generativa da Microsoft em uma notícia de interesse público e com teor trágico.
A carta ressalta que a notícia foi originalmente escrita e publicada por jornalistas do The Guardian, enfatizando a falta de consentimento para a inserção da enquete.
Além de destacar a falta de respeito à memória da vítima, Bateson argumenta que a reputação do The Guardian também foi prejudicada, uma vez que muitos leitores acreditaram que a enquete fazia parte da responsabilidade editorial do jornal, quando na verdade foi gerada automaticamente pela IA.
A diretora executiva do jornal expressou a necessidade de uma lei de direitos autorais que impeça a inteligência artificial de utilizar conteúdo de mídia sem o consentimento dos veículos.
O incidente também lança luz sobre as lacunas na regulamentação do uso da IA. Apesar de existir um acordo entre o The Guardian e a Microsoft para o uso das notícias do jornal no Microsoft News, a questão da geração de enquetes por IA não estava incluída nesse acordo. Ou seja, essa tecnologia está evoluindo mais rapidamente do que as regulamentações podem acompanhar.
As consequências do incidente
O episódio evidencia que há muito trabalho a ser feito, tanto em termos de legislação que regule o uso da IA quanto no desenvolvimento da própria inteligência artificial.
Parece que a IA ainda não é capaz de compreender completamente as nuances e a sensibilidade necessárias para evitar a criação de conteúdo inadequado, especialmente em situações delicadas como essa.
O incidente atravessou fronteiras, e chamou a atenção de veículos de imprensa em todo o mundo, reforçando o debate da ética na criação de conteúdo jornalístico. Também deve se discutir como podemos equilibrar a inovação tecnológica com a responsabilidade na produção de conteúdo.
Não dá para barrar o desenvolvimento das inteligências artificiais, mas podemos controlar e regular o seu uso. Aliás, devemos. Os resultados podem ser desastrosos se tais práticas forem utilizadas por mentes mais maliciosas e com fins nocivos para o coletivo.
É isso mesmo que você entendeu. Estou falando da possibilidade de uma IA se transformar em uma máquina de produção de fake news. Se é que isso já não está acontecendo.