Os assistentes pessoais inteligentes são uma realidade. Felizmente. Não podemos criticar o fato de uma tecnologia ter avançado a ponto de se popularizar, afetando aspectos da nossa vida prática que vai tornar o nosso dia a dia mais útil e funcional. É para isso que a tecnologia existe: melhorar a vida das pessoas.

A inteligência artificial está na pauta do dia, e é a tecnologia do momento. Todos os principais fabricantes estão trabalhando com esse tipo de recurso de alguma forma, e os resultados alcançados mostram claramente que essa é uma forma das marcas se diferenciarem, com benefício reais e diretos aos usuários.

Porém, essa mesma tecnologia de inteligência artificial, quando utilizada por mãos erradas, pode entregar resultados catastróficos. Não podemos nos esquecer que essa inteligência artificial precisa de uma curva de aprendizado, seja ela oferecida diretamente pelo ser humano responsável por sua programação, ou por conta de uma aprendizagem natural, com os hábitos do usuário.

Recentemente, Alexander Reben do MIT publicou um vídeo polêmico, que mostra um dispositivo Google Assistente acionando uma arma e atirando contra uma maçã, a partir de um comando de voz. O vídeo tem como objetivo despertar nas pessoas a consciência sobre os perigos do uso dessa tecnologia de inteligência artificial por mãos erradas ou mentes não muito certas do que estão fazendo.

Quando olhamos para os termos de uso do Google Assistente, está descrito claramente que é vedado o uso dessa tecnologia para ações que promovem a violência ou atividades perigosas. Mas isso não vai impedir que alguém insensato não utilize a inteligência artificial para prejudicar e até matar alguém. Os termos só existem para livrar a cara da Google se algum problema aparecer.

Aliás, algo que é preciso ter em mente de forma clara é: em uma situação como essa, quem responde pelo crime? A pessoa que acionou o comando para a inteligência artificial executar o crime? Ou o próprio sistema de IA, que realizou o disparo de forma efetiva?

Algumas questões sobre o uso dessas tecnologias ainda não são respondidas, e precisam ser. É preciso despertar nos envolvidos a necessidade de questionamento para evitar que problemas desse porte aconteçam no mundo prático. Talvez quem sabe determinar os parâmetros sobre essa curva de aprendizado dos softwares, limitando esse aprendizado, ou estabelecendo os valores éticos daquilo que os programas devem absorver para si (ou não).

É claro que o vídeo foi feito para impressionar as pessoas. E realmente chama a atenção pelo aspecto prático da questão. Mas deve também despertar o raciocínio sobre a importância de debater os efeitos dessa tecnologia, prevendo o que pode acontecer de pior também.

Infelizmente, temos que pensar nisso. Afinal de contas, o ser humano é imperfeito. E hoje trabalha para que máquinas aprendam tudo da mesma forma que ele, o ser humano, aprendeu.

Só eu estou vendo o potencial negativo desse negócio?