IA: OMS teme erro médico e dano a paciente com adoção precipitada na saúde
![Logo da OMS em Genebra - Denis Balibouse/Reuters](https://conteudo.imguol.com.br/c/noticias/e2/2022/03/11/logo-da-oms-em-genebra-1647047156251_v2_900x506.jpg)
A Organização Mundial da Saúde (OMS) lançou nesta terça-feira, 16, um comunicado que pede cautela no uso de inteligência artificial "para proteger e promover o bem-estar, a segurança e a autonomia humanas e preservar a saúde pública". Na avaliação da OMS, falta a preocupação comum à inserção de tecnologias em saúde.
"A adoção precipitada de sistemas não testados pode levar a erros por parte dos profissionais de saúde, causar danos aos pacientes, minar a confiança na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo", diz o comunicado.
A organização se diz preocupada com a possibilidade de treinamento das IAs com dados tendenciosos, geração de respostas incorretas que parecem verdadeiras e possível estímulo à desinformação. A OMS recomendou que formuladores de políticas se dediquem a garantir a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar as tecnologias.
Segundo a OMS, os modelos de linguagem (LLMs, em inglês) gerados por inteligência artificial, como a que compõe o ChatGPT, tentam imitar a compreensão, o processamento e a produção da comunicação humana. A "difusão pública meteórica" e o "crescente uso experimental para fins relacionados à saúde estão gerando um entusiasmo significativo", avalia.
A OMS também se diz "entusiasmada" com o uso apropriado de tecnologias, incluindo LLMs, para apoiar profissionais de saúde, mas diz estar preocupada "de que o cuidado que normalmente seria exercido para qualquer nova tecnologia não esteja sendo exercido de forma consistente com as LLMs". De acordo com a agência, é "imperativo" que os riscos da adesão dessas tecnologias sejam "cuidadosamente" avaliados.
Preocupações
No comunicado, a OMS listou as preocupações que a levaram a fazer o alerta:
- Os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem representar riscos à saúde, equidade e inclusão;
- Os modelos de linguagem geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou conter erros graves, especialmente para respostas relacionadas à saúde;
- Os modelos de linguagem podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;
- Os modelos de linguagem podem ser mal utilizados para gerar e disseminar desinformação altamente convincente na forma de conteúdo de texto, áudio ou vídeo que é difícil para o público diferenciar de conteúdo de saúde confiável.
ID: {{comments.info.id}}
URL: {{comments.info.url}}
Ocorreu um erro ao carregar os comentários.
Por favor, tente novamente mais tarde.
{{comments.total}} Comentário
{{comments.total}} Comentários
Seja o primeiro a comentar
Essa discussão está encerrada
Não é possivel enviar novos comentários.
Essa área é exclusiva para você, assinante, ler e comentar.
Só assinantes do UOL podem comentar
Ainda não é assinante? Assine já.
Se você já é assinante do UOL, faça seu login.
O autor da mensagem, e não o UOL, é o responsável pelo comentário. Reserve um tempo para ler as Regras de Uso para comentários.