OMS teme erro médico a paciente com adoção precipitada na saúde

 OMS teme erro médico a paciente com adoção precipitada na saúde

[ad_1]

A Organização Mundial da Saúde (OMS) lançou nesta terça-feira, 16, um transmitido que pede cautela no uso de inteligência artificial “para proteger e promover o bem-estar, a segurança e a autonomia humanas e preservar a saúde pública”. Na avaliação da OMS, falta a preocupação geral à inserção de tecnologias em saúde.

“A adoção precipitada de sistemas não testados pode levar a erros por secção dos profissionais de saúde, promover danos aos pacientes, minar a crédito na IA e, assim, minar (ou atrasar) os potenciais benefícios e usos de longo prazo de tais tecnologias em todo o mundo”, diz o transmitido.

A organização se diz preocupada com a possibilidade de treinamento das IAs com dados tendenciosos, geração de respostas incorretas que parecem verdadeiras e provável fomento à desinformação. A OMS recomendou que formuladores de políticas se dediquem a prometer a segurança e a proteção do paciente enquanto as empresas de tecnologia trabalham para comercializar as tecnologias.

Segundo a OMS, os modelos de linguagem (LLMs, em inglês) gerados por perceptibilidade sintético, uma vez que a que compõe o ChatGPT, tentam imitar a compreensão, o processamento e a produção da informação humana. A “espalhamento pública meteórica” e o “crescente uso experimental para fins relacionados à saúde estão gerando um exalo significativo”, avalia.

A OMS também se diz “entusiasmada” com o uso tempestivo de tecnologias, incluindo LLMs, para estribar profissionais de saúde, mas diz estar preocupada “de que o zelo que normalmente seria exercido para qualquer novidade tecnologia não esteja sendo exercido de forma consistente com as LLMs”. De tratado com a escritório, é “imperativo” que os riscos da adesão dessas tecnologias sejam “cuidadosamente” avaliados.

Preocupações

No transmitido, a OMS listou as preocupações que a levaram a fazer o alerta:

– Os dados usados para treinar IA podem ser tendenciosos, gerando informações enganosas ou imprecisas que podem simbolizar riscos à saúde, justiça e inclusão;

– Os modelos de linguagem geram respostas que podem parecer confiáveis e plausíveis para um usuário final; no entanto, essas respostas podem estar completamente incorretas ou sustar erros graves, principalmente para respostas relacionadas à saúde;

– Os modelos de linguagem podem ser treinados em dados para os quais o consentimento pode não ter sido fornecido anteriormente para tal uso, e podem não proteger dados confidenciais (incluindo dados de saúde) que um usuário fornece a um aplicativo para gerar uma resposta;

– Os modelos de linguagem podem ser mal utilizados para gerar e disseminar desinformação altamente suasório na forma de teor de texto, áudio ou vídeo que é difícil para o público diferenciar de teor de saúde confiável.



[ad_2]

Source link

Digiqole ad Digiqole ad

Relacionado