Organização Mundial da Saúde: Orientações sobre Grandes Modelos Multimodais [PT]
Esta página é uma tradução do artigo original em inglês. Observe que a navegação está disponível somente em inglês.
Contribuímos para as orientações abrangentes da Organização Mundial da Saúde sobre a governança de grandes modelos multimodais (LMMs), um subconjunto da IA generativa, para aplicações na área da saúde. As orientações baseiam-se na estrutura de 2021 da OMS sobre ética da IA e visam ajudar os Estados-membros a avaliar as implicações dos LMMs e definir vias regulatórias para sua implantação ética, segura e equitativa.
Relacionado
Conselho de Acessibilidade dos EUA: Ordem Executiva sobre IA e Acessibilidade
NIST: Perfil de IA Generativa (AI 600-1) e Estrutura de Gestão de Riscos de IA (AI RMF)
PCAST: Grupo de Trabalho sobre IA Generativa (Atualizado)
Principais Estatísticas e Perspectivas
Os LMMs representam a maior taxa de adoção de qualquer tecnologia de consumo na história, com o ChatGPT atingindo 100 milhões de usuários em dois meses (janeiro de 2023). Esses modelos são capazes de processar e gerar múltiplos tipos de dados — texto, imagens, áudio, vídeo — e estão sendo testados em cuidados clínicos, educação, tarefas administrativas e pesquisa. Vários LMMs foram aprovados no Exame de Licenciamento Médico dos EUA, embora o desempenho permaneça variável fora de conjuntos de dados bem representados.
Os conjuntos de dados de treinamento demonstram escala e diversidade consideráveis em aplicações médicas. Os exemplos incluem modelos treinados em mais de 30.000 laudos de casos clínicos, mais de 100.000 radiografias de tórax e milhões de registros eletrônicos de saúde. As avaliações de desempenho apresentam resultados variados: um estudo norte-americano de 2023 indicou que as respostas do ChatGPT foram preferidas às dos médicos em aproximadamente 80% dos 195 casos analisados em um fórum médico online.
Panorama de Riscos
Precisão: estudos mostram taxas de alucinação entre 3 e 27%, a depender do prompt e do modelo.
Viés: os dados de treinamento frequentemente super-representam regiões de alta renda; por exemplo, conjuntos de dados genéticos tendem a privilegiar pessoas de ascendência europeia.
Viés de automação: médicos podem confiar excessivamente nos resultados da IA, aumentando o risco de erros clínicos.
Impacto ambiental: os LMMs contribuem de forma significativa para as emissões de carbono e o consumo de água, gerando preocupações com a sustentabilidade.
As implicações para a força de trabalho apresentam desafios multifacetados. Os LMMs podem substituir determinadas funções na área da saúde, ao mesmo tempo em que exigem novas competências e iniciativas de requalificação profissional. A tecnologia pode resultar em condições de trabalho com baixa remuneração e desgaste psicológico. A autonomia do paciente enfrenta riscos específicos decorrentes de processos de consentimento informado comprometidos e de injustiça epistêmica, com grupos marginalizados sofrendo vulnerabilidade desproporcional.
Estrutura de Governança
A OMS recomenda ações estruturadas ao longo do ciclo de vida da IA: Desenvolvimento → Provisão → Implantação.
Fase de Desenvolvimento – Responsabilidades
Desenvolvedores
Realizar avaliações de impacto da proteção de dados
Envolver partes interessadas diversas
Otimizar a eficiência energética
Garantir transparência sobre os dados de treinamento
Governos
Promulgar leis rigorosas de proteção de dados
Exigir pré-certificação e padrões baseados em resultados
Financiar LMMs de código aberto
Aplicar responsabilização pelo consumo de carbono e água
Fase de Provisão: os governos devem atribuir autoridade de aprovação regulatória, exigir auditorias independentes e transparência sobre o código-fonte e os dados de entrada, aplicar leis de proteção ao consumidor e proibir o uso experimental fora de ensaios clínicos sem supervisão adequada.
Fase de Implantação: os responsáveis pela implantação (como ministérios e hospitais) devem evitar o uso de LMMs em contextos inadequados, comunicar os riscos de forma transparente, garantir precificação equitativa e acesso linguístico, e capacitar profissionais sobre as limitações dos LMMs, segurança cibernética e uso ético.
A estrutura da OMS fundamenta-se em seis princípios éticos centrais: Proteger a Autonomia, Promover o Bem-estar e a Segurança, Garantir a Transparência e a Explicabilidade, Fomentar a Responsabilização, Assegurar a Inclusão e a Equidade e Promover a Sustentabilidade. Para fortalecer a proteção dos usuários, as orientações recomendam que os governos considerem regimes de responsabilidade objetiva, mecanismos de indenização sem comprovação de culpa e presunções de causalidade, a fim de reduzir as barreiras ao acesso à reparação. A OMS também defende uma governança internacional equitativa, que envolva não apenas países e corporações de alta renda, mas também países de baixa e média renda, a sociedade civil e instituições multilaterais, por meio de um modelo de multilateralismo em rede.
• • •
Referências
¹ Organização Mundial da Saúde. "Ética e governança da inteligência artificial para a saúde: Orientações sobre grandes modelos multimodais." Genebra: OMS; 2024. ISBN: 978-92-4-008475-9.
² Organização Mundial da Saúde. "OMS divulga orientações sobre ética e governança da IA para grandes modelos multimodais." 18 de janeiro de 2024.
³ Organização Mundial da Saúde. "Ética e governança da inteligência artificial para a saúde: Orientações da OMS." Genebra: OMS; 2021. ISBN: 978-92-4-003419-8.
⁴ Organização Mundial da Saúde. "OMS publica primeiro relatório global sobre Inteligência Artificial (IA) na saúde e seis princípios orientadores para seu design e uso." 28 de junho de 2021.
⁵ WHO IRIS (Repositório Institucional para Compartilhamento de Informações). "Ética e governança da inteligência artificial para a saúde." 2021.
⁶ Organização Mundial da Saúde, Cientista-Chefe e Divisão de Ciência, Unidade de Ética e Governança em Saúde. "Ética e governança da inteligência artificial para a saúde: Orientações sobre grandes modelos multimodais." 2024.
⁷ Centro Nacional de Informações em Biotecnologia, PMC. "Grandes modelos multimodais – o presente ou o futuro da inteligência artificial na medicina?" PMC10915764. Março de 2024.
⁸ Nature Digital Medicine. "Iniciativa Global sobre IA para a Saúde (GI-AI4H): prioridades estratégicas para o avanço da governança nas Nações Unidas." 2025.
⁹ Centro Nacional de Informações em Biotecnologia, PMC. "A ética do avanço da inteligência artificial na área da saúde: análise das considerações éticas para o inovador sistema hospitalar de IA do Japão." PMC10390248. 2023.