A Organização Mundial da Saúde (OMS) lançou nesta terça-feira, 16, um comunicado que pede cautela no uso de inteligência artificial “para proteger e promover o bem-estar, a segurança e a autonomia humanas e preservar a saúde pública”. Na avaliação da OMS, falta a preocupação comum à inserção de tecnologias em saúde.
“A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo”, diz o comunicado.
A organização se diz preocupada com a possibilidade de treinamento das IAs com dados tendenciosos, geração de respostas incorretas que parecem verdadeiras e possível estímulo à desinformação. A OMS recomendou que formuladores de políticas se dediquem a garantir a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar as tecnologias.
Segundo a OMS, os modelos de linguagem (LLMs, em inglês) gerados por inteligência artificial, como a que compõe o ChatGPT, tentam imitar a compreensão, o processamento e a produção da comunicação humana. A “difusão pública meteórica” e o “crescente uso experimental para fins relacionados à saúde estão gerando um entusiasmo significativo”, avalia.
A OMS também se diz “entusiasmada” com o uso apropriado de tecnologias, incluindo LLMs, para apoiar profissionais de saúde, mas diz estar preocupada “de que o cuidado que normalmente seria exercido para qualquer nova tecnologia não esteja sendo exercido de forma consistente com as LLMs”. De acordo com a agência, é “imperativo” que os riscos da adesão dessas tecnologias sejam “cuidadosamente” avaliados.
Preocupações
No comunicado, a OMS listou as preocupações que a levaram a fazer o alerta:
- Os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
- Os modelos de linguagem geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
- Os modelos de linguagem podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
- Os modelos de linguagem podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável.