Press "Enter" to skip to content
Início » Notícias » IA da Microsoft usa notícia para criar enquete sobre uma mulher morta

IA da Microsoft usa notícia para criar enquete sobre uma mulher morta

Compartilhe

Uma enquete gerada por inteligência artificial em uma notícia do The Guardian gerou enorme barulho e debate sobre ética e regulamentação no uso da tecnologia no jornalismo.

No centro dessa controvérsia, está a notícia do falecimento trágico de Lilie James, uma treinadora de polo aquático de apenas 21 anos, encontrada morta com ferimentos na cabeça em Sidney (Austrália). O problema está na enquete no final da matéria, criada por uma inteligência artificial da Microsoft de forma automática.

A reação do público não poderia ter sido mais acalorada, e as palavras usadas nos comentários foram inequivocamente críticas. A maioria dos leitores classificou a enquete como “patética e repugnante.” A notícia, que deveria informar sobre a tragédia, se tornou alvo de repúdio por causa da insensibilidade da enquete.

 

The Guardian foi pra cima da Microsoft

Anna Bateson, diretora executiva do Guardian Media Group, redigiu e enviou uma carta ao presidente responsável na Microsoft, Brad Smith, criticando veementemente o uso da IA. Em sua mensagem, Bateson destaca o uso inapropriado da IA generativa da Microsoft em uma notícia de interesse público e com teor trágico.

A carta ressalta que a notícia foi originalmente escrita e publicada por jornalistas do The Guardian, enfatizando a falta de consentimento para a inserção da enquete.

Além de destacar a falta de respeito à memória da vítima, Bateson argumenta que a reputação do The Guardian também foi prejudicada, uma vez que muitos leitores acreditaram que a enquete fazia parte da responsabilidade editorial do jornal, quando na verdade foi gerada automaticamente pela IA.

A diretora executiva do jornal expressou a necessidade de uma lei de direitos autorais que impeça a inteligência artificial de utilizar conteúdo de mídia sem o consentimento dos veículos.

O incidente também lança luz sobre as lacunas na regulamentação do uso da IA. Apesar de existir um acordo entre o The Guardian e a Microsoft para o uso das notícias do jornal no Microsoft News, a questão da geração de enquetes por IA não estava incluída nesse acordo. Ou seja, essa tecnologia está evoluindo mais rapidamente do que as regulamentações podem acompanhar.

 

As consequências do incidente

O episódio evidencia que há muito trabalho a ser feito, tanto em termos de legislação que regule o uso da IA quanto no desenvolvimento da própria inteligência artificial.

Parece que a IA ainda não é capaz de compreender completamente as nuances e a sensibilidade necessárias para evitar a criação de conteúdo inadequado, especialmente em situações delicadas como essa.

O incidente atravessou fronteiras, e chamou a atenção de veículos de imprensa em todo o mundo, reforçando o debate da ética na criação de conteúdo jornalístico. Também deve se discutir como podemos equilibrar a inovação tecnológica com a responsabilidade na produção de conteúdo.

Não dá para barrar o desenvolvimento das inteligências artificiais, mas podemos controlar e regular o seu uso. Aliás, devemos. Os resultados podem ser desastrosos se tais práticas forem utilizadas por mentes mais maliciosas e com fins nocivos para o coletivo.

É isso mesmo que você entendeu. Estou falando da possibilidade de uma IA se transformar em uma máquina de produção de fake news. Se é que isso já não está acontecendo.


Compartilhe
@oEduardoMoreira