Press "Enter" to skip to content
Início » Tecnologia » Não queira a IA que só concorda com você

Não queira a IA que só concorda com você

Compartilhe

A inteligência artificial (IA) tem se tornado uma presença cada vez mais significativa em nossas vidas. Ela nos ajuda a encontrar informações, recomenda produtos, e até mesmo escreve textos como este que você está lendo agora.

Mas nem tudo são flores no universo da IA. Estamos diante de uma tecnologia que está em pleno processo de desenvolvimento, e ainda nos deparamos com problemas típicos dessa evolução que precisam ser superados.

Um estudo recente realizado por Jerry Wei e seus colegas da Google DeepMind revelou um comportamento surpreendente da IA que merece nossa atenção: o “concordar demais que prejudica”.

 

Concordância e adulação desnecessários

Imagine um mundo onde a IA sempre concorda com você, independentemente da veracidade do que você está dizendo. Parece surreal, certo?

Eu sei que existem algumas pessoas com a personalidade mais fraca que adorariam ter alguém ou uma IA que concordasse com tudo o que é dito por esse indivíduo. Mas essa utopia é prejudicial e perigosa, pois essa pessoa está propensa apenas a ouvir aquilo que quer, sem se abrir espaço para o contraditório, algo muito importante em nossas vidas.

Então… é exatamente isso que Jerry Wei e sua equipe descobriram ao analisar o comportamento da IA. Mesmo quando sabem que os humanos estão errados, os sistemas de IA tendem a adular, concordando com suas opiniões e ações.

Mas como exatamente essa adulação da IA se manifesta?

O estudo se concentrou em modelos de linguagem, especialmente no modelo “large language (LL) PaLM” do Google, que possui 540.000 bilhões de parâmetros. Os pesquisadores ajustaram as instruções dadas à IA e observaram como isso afetava seu nível de adulação.

Os resultados revelaram que, quando as instruções dadas à IA são ajustadas, ela tende a aumentar sua adulação, especialmente em tópicos onde não há uma única resposta correta, como por exemplo os debates políticos. Isso nos leva a pensar sobre como a IA pode influenciar nossas opiniões e a polarização em torno de questões controversas.

E eu nem preciso ir muito longe nessa análise: se na era das fake news muitas pessoas optaram por permanecer na bolha da ignorância, pense em como esse comportamento pode se tornar algo ainda pior com uma IA oferecendo como resposta apenas o que o indivíduo quer ouvir como resposta.

É um possível cenário de caos.

 

Só piora com o passar do tempo

Outro detalhe importante detectado nesse estudo é que a adulação da IA parece aumentar à medida que o modelo se torna maior.

Os pesquisadores não conseguiram encontrar uma explicação clara para esse fenômeno, mas isso levanta preocupações sobre como a IA pode ser programada para agir de maneira cada vez mais subserviente à medida que sua capacidade cresce.

Um dos exemplos mais impactantes do estudo é o fato de que a IA concorda com afirmações incorretas dos usuários, mesmo quando sabe que estão erradas. Ou seja, a integridade das informações fornecidas por esses sistemas é questionada, e como essas plataformas podem perpetuar falsidades e desinformação.

É sempre importante lembrar que as ferramentas de inteligência artificial aprendem com os humanos. Ou seja, são as pessoas com códigos morais e éticos que estão ensinando essas plataformas a serem lenientes com a mentira.

Agora, some isso ao fato da maioria dos chatbots mentirem para completar contextos em suas respostas, e estamos diante de um grave problema que precisa ser solucionado para (inclusive) garantir o uso seguro dessas plataformas.

 

Soluções em vista

Como podemos lidar com esse problema de adulação excessiva da IA?

Os pesquisadores sugerem que seguir instruções nem sempre é a melhor abordagem. Em vez disso, a IA deve ser capaz de fornecer respostas objetivas e imparciais, aplicando pensamento crítico e racionalidade.

Uma solução proposta envolve o uso de dados sintéticos, que podem reduzir a frequência com que a IA repete as respostas dos usuários, especialmente quando não há resposta correta para uma pergunta. Isso ajudaria a evitar que a IA siga opiniões incorretas dos usuários, contribuindo para uma interação mais informada e equilibrada com a IA.

No final das contas, o estudo desenvolvido por Jerry Wei revela uma faceta melancólica do próprio ser humano: a tendência em se fechar no seu mundo e manipular a tecnologia para atender os seus interesses em detrimento do coletivo.

O uso de uma IA para aumentar a produtividade é algo muito positivo, mas ainda é preciso ter uma boa dose de senso comum e moderação antes de cair de cabeça na adoção das respostas dessas plataformas.

Porém, é fácil concluir que o bom senso está passando longe das pessoas que estão utilizando essas plataformas.


Compartilhe
@oEduardoMoreira