Organización Mundial de la Salud: Orientación sobre modelos multimodales de gran tamaño [ES]
Esta página es una traducción del artículo original en inglés. Tenga en cuenta que la navegación está disponible únicamente en inglés.
Hemos aportado nuestra contribución a la exhaustiva orientación de la Organización Mundial de la Salud sobre la gobernanza de los modelos multimodales de gran tamaño (LMM), un subconjunto de la IA generativa, para su aplicación en el ámbito de la atención sanitaria. La orientación se basa en el marco de 2021 de la OMS sobre ética de la IA y tiene por objeto ayudar a los Estados miembros a evaluar las implicaciones de los LMM y definir vías regulatorias para su despliegue ético, seguro y equitativo.
Relacionado
Junta de Acceso de EE. UU.: Orden Ejecutiva sobre IA y Accesibilidad
NIST: Perfil de IA generativa (AI 600-1) y Marco de gestión de riesgos de IA (AI RMF)
PCAST: Grupo de trabajo sobre IA generativa (actualizado)
WEF: Potencial de la IA generativa para la accesibilidad
Estadísticas y datos clave
Los LMM representan la tasa de adopción más rápida de cualquier tecnología de consumo en la historia, con ChatGPT alcanzando 100 millones de usuarios en dos meses (enero de 2023). Estos modelos pueden procesar y generar múltiples tipos de datos (texto, imágenes, audio, video) y se están probando piloto en atención clínica, educación, tareas administrativas e investigación. Varios LMM han superado el Examen de Licencia Médica de EE. UU., aunque el rendimiento sigue siendo variable fuera de los conjuntos de datos bien representados.
Los conjuntos de datos de entrenamiento demuestran una escala y diversidad sustanciales en aplicaciones médicas. Algunos ejemplos incluyen modelos entrenados con más de 30,000 informes de casos médicos, más de 100,000 radiografías de tórax y millones de historias clínicas electrónicas. Las evaluaciones de rendimiento muestran resultados variables, con un estudio estadounidense de 2023 indicando que las respuestas de ChatGPT fueron preferidas sobre las respuestas de los médicos en aproximadamente el 80% de 195 casos analizados de un foro médico en línea.
Resumen de riesgos
Precisión: Los estudios muestran tasas de alucinación del 3–27%, dependiendo del prompt y el modelo.
Sesgo: Los datos de entrenamiento suelen sobrerrepresentar las regiones de altos ingresos; por ejemplo, los conjuntos de datos genéticos se inclinan hacia personas de ascendencia europea.
Sesgo de automatización: Los médicos pueden confiar excesivamente en los resultados de la IA, arriesgando errores clínicos.
Impacto ambiental: Los LMM contribuyen significativamente a las huellas de carbono y agua, planteando preocupaciones de sostenibilidad.
Las implicaciones para la fuerza laboral presentan desafíos multifacéticos. Los LMM pueden desplazar ciertos roles sanitarios mientras simultáneamente requieren nuevas habilidades e iniciativas de recapacitación. La tecnología puede resultar en condiciones laborales de bajos salarios y psicológicamente exigentes. La autonomía del paciente enfrenta riesgos particulares a través de procesos comprometidos de consentimiento informado e injusticia epistémica, con grupos marginados experimentando vulnerabilidad desproporcionada.
Marco de gobernanza
La OMS recomienda acción estructurada a lo largo del ciclo de vida de la IA: Desarrollo → Provisión → Despliegue.
Fase de desarrollo – Responsabilidades
Desarrolladores
Realizar evaluaciones de impacto de la protección de datos
Involucrar a diversas partes interesadas
Optimizar la eficiencia energética
Proporcionar transparencia sobre los datos de entrenamiento
Gobiernos
Promulgar leyes sólidas de protección de datos
Exigir precertificación y estándares basados en resultados
Financiar LMM de código abierto
Hacer cumplir la rendición de cuentas en carbono y agua
Fase de provisión: Los gobiernos deben asignar autoridad de aprobación regulatoria, requerir auditorías de terceros y transparencia respecto al código fuente y entrada de datos, aplicar leyes de protección del consumidor y prohibir el uso experimental sin supervisión fuera de ensayos.
Fase de despliegue: Los implementadores (por ejemplo, ministerios, hospitales) deben evitar el uso de LMM en entornos no aptos, comunicar los riesgos abiertamente, asegurar precios equitativos y acceso lingüístico, y capacitar a los profesionales sobre las limitaciones de los LMM, ciberseguridad y uso ético.
El marco de la OMS se fundamenta en seis principios éticos centrales: Proteger la autonomía, Promover el bienestar y la seguridad, Asegurar la transparencia y explicabilidad, Fomentar la rendición de cuentas, Asegurar la inclusividad y equidad, y Promover la sostenibilidad. Para fortalecer la protección del usuario, la orientación recomienda que los gobiernos consideren regímenes de responsabilidad estricta, mecanismos de compensación sin culpa y presunciones de causalidad para reducir barreras a la reparación. La OMS insta además a una gobernanza internacional equitativa, involucrando no solo a naciones y corporaciones de altos ingresos sino también a países de ingresos bajos y medios, sociedad civil e instituciones multilaterales a través de un modelo de multilateralismo en red.
• • •
Referencias
¹ Organización Mundial de la Salud. "Ética y gobernanza de la inteligencia artificial para la salud: Orientación sobre modelos multimodales de gran tamaño." Ginebra: OMS; 2024. ISBN: 978-92-4-008475-9.
² Organización Mundial de la Salud. "La OMS publica orientación sobre ética y gobernanza de la IA para modelos multimodales de gran tamaño." 18 de enero de 2024.
³ Organización Mundial de la Salud. "Ética y gobernanza de la inteligencia artificial para la salud: Orientación de la OMS." Ginebra: OMS; 2021. ISBN: 978-92-4-003419-8.
⁴ Organización Mundial de la Salud. "La OMS publica el primer informe mundial sobre inteligencia artificial (IA) en la salud y seis principios rectores para su diseño y uso." 28 de junio de 2021.
⁵ IRIS de la OMS (Repositorio institucional para el intercambio de información). "Ética y gobernanza de la inteligencia artificial para la salud." 2021.
⁶ Organización Mundial de la Salud, Científico Jefe y División de Ciencias, Unidad de Ética y Gobernanza de la Salud. "Ética y gobernanza de la inteligencia artificial para la salud: Orientación sobre modelos multimodales de gran tamaño." 2024.
⁷ Centro Nacional de Información Biotecnológica, PMC. "Modelos multimodales de gran tamaño: ¿el presente o el futuro de la inteligencia artificial en medicina?" PMC10915764. Marzo de 2024.
⁸ Nature Digital Medicine. "Iniciativa Global sobre IA para la Salud (GI-AI4H): prioridades estratégicas para avanzar la gobernanza a través de las Naciones Unidas." 2025.
⁹ Centro Nacional de Información Biotecnológica, PMC. "La ética del avance de la inteligencia artificial en la atención sanitaria: análisis de consideraciones éticas para el innovador sistema hospitalario de IA de Japón." PMC10390248. 2023.