Press "Enter" to skip to content

Pare de usar a IA como nutricionista!

Compartilhe

Eu começo o artigo pedindo encarecidamente e com toda a educação: vamos parar de utilizar a inteligência artificial de forma absurda e totalmente inconsequente?

O uso inadequado da IA normalmente resulta em cenários graves, principalmente quando alguém acha que é uma boa ideia substituir a orientação de profissionais qualificados pelo ChatGPT.

Um homem de 60 anos acabou hospitalizado após seguir uma recomendação incorreta do ChatGPT, acreditando que seu vizinho o estava envenenando. E é claro que o caso ganhou visibilidade pelo excesso de confiança nas respostas da IA, dispensando a verificação profissional.

Os riscos da saúde são óbvios, e nenhuma plataforma de IA deve ser utilizada como fonte de diagnóstico ou tratamento médico. Mas como algumas pessoas insistem em não seguir orientações claras para qualquer coisa na vida…

Vamos aos fatos.

 

Sintomas e internação

O paciente chegou ao pronto-socorro apresentando alucinações visuais e auditivas, acreditando que o vizinho o envenenava. Ele sentia muita sede, mas se recusava a beber água, um comportamento totalmente contraditório e fora do normal.

A equipe médica manteve o indivíduo sob observação psiquiátrica e, após alguns exames, foi constatado altos níveis de brometo no seu organismo. O diagnóstico apontou para um quadro de bromismo, uma intoxicação rara nos dias de hoje.

A publicação do caso nos Annals of Internal Medicine Clinical Cases indicou que o paciente também apresentava insônia, fadiga e outros sintomas típicos do excesso de brometo. A situação exigiu intervenção rápida para evitar complicações mais graves.

O estado inicial do paciente exigiu cuidado intensivo, pois a confusão mental dificultava a comunicação e a compreensão sobre a própria condição.

E uma vez que o paciente estava estável, os médicos se dedicaram a descobrir o que exatamente aconteceu para que ele chegasse ao hospital neste estado.

 

A origem do problema

A investigação revelou que o homem buscava reduzir o consumo de sal, após ler sobre os riscos do sódio. Algo considerado sensato para qualquer pessoa mais preocupada com a sua saúde em longo prazo.

O problema aconteceu quando ele fez a pior escolha possível para quem quer cuidar da própria saúde: acreditar cegamente nas recomendações de uma plataforma de inteligência artificial.

Ao consultar o ChatGPT, o paciente recebeu como sugestão a substituição do cloreto de sódio por brometo, um conselho perigoso e sem respaldo médico. Sem questionar a indicação, ele iniciou o consumo da substância.

Eu nem precisava dizer isso, mas… em nenhuma dieta que aposta na restrição ou eliminação de consumo de um elemento é recomendada uma mudança radical e não monitorada, sem observar para os impactos dessa mudança.

O bromismo resultante causou alterações neurológicas e sintomas que foram interpretados inicialmente como um possível quadro de envenenamento criminoso. Afinal de contas, poderia sim ser um médico do mundo real que orientou ao paciente tal tratamento com o objetivo de leva-lo ao óbito.

O cenário do paciente deixa claro como uma orientação errada de IA pode desencadear diagnósticos equivocados, reforçando a importância de filtrar e confirmar informações obtidas por meios digitais antes de aplicá-las na vida real, especialmente no âmbito da saúde.

 

Advertências sobre o uso da IA

O caso foi utilizado como alerta por profissionais e pela própria OpenAI, que reforçou que o ChatGPT não deve substituir a orientação de especialistas. A empresa destaca que seus modelos são projetados para incentivar a busca por atendimento profissional.

Segundo os médicos envolvidos, nenhum profissional recomendaria o uso de brometo como substituto do sal. O caso também expôs a dificuldade de interpretação de certos exames, como a pseudo-hipercloremia, que mascarava o real problema.

Uma das funções de um médico é justamente interpretar o diagnóstico e aplicar as mudanças monitoradas ao paciente, evitando inclusive que tais alterações nos hábitos alimentares se revertam em prejuízos a longo prazo para aquela pessoa.

E temos aqui mais um caso que mostra que as tecnologias de inteligência artificial podem no máximo apoiar, mas jamais substituir o conhecimento técnico humano em algumas áreas.

 

Recuperação

Com a abordagem médica adequada, o paciente apresentou melhora progressiva, e tudo ficou bem. A paranoia diminuiu e ele conseguiu relatar a origem da situação.

Em três semanas, ele recebeu alta e teve a medicação antipsicótica reduzida.

E aqui, aprendemos sobre a enorme responsabilidade e risco no uso de IA para aplicar informações obtidas nas respostas de forma automática e sem avaliação profissional na hora dos melhores cuidados de saúde.

A combinação entre tecnologia e medicina requer cautela e discernimento. Apesar de todos os avanços das plataformas, a inteligência artificial como um todo ainda carece da sensibilidade e do julgamento humano para as situações de alto risco.

 

Via Mobilzona


Compartilhe
@oEduardoMoreira