OCDE: Marco de Informes del Proceso de IA del G7 en Hiroshima (HAIP) [ES]
Esta página es una traducción del artículo original en inglés. Tenga en cuenta que la navegación está disponible únicamente en inglés.
Aportamos nuestra contribución al grupo de trabajo y a la convocatoria del Marco de Informes (HAIP) del Proceso de IA del G7 en Hiroshima, respaldado por la OCDE (1). Se presentó durante la Cumbre de Acción sobre IA de París, donde mostramos partes del MOOC dedicado a la IA centrada en la accesibilidad, y asistimos a la presentación de dos informes y consultas públicas en los que se incluyeron nuestras aportaciones.
Este Marco de Informes es un resultado directo del Proceso de IA del G7 en Hiroshima, iniciado bajo la Presidencia japonesa del G7 en 2023 y posteriormente impulsado bajo la Presidencia italiana del G7 en 2024. Se basa en el Código de Conducta Internacional del Proceso de Hiroshima sobre IA para Organizaciones que Desarrollan Sistemas Avanzados de IA, una iniciativa histórica para fomentar la transparencia y la rendición de cuentas en el desarrollo de sistemas avanzados de IA. A petición del G7, y en consonancia con la Declaración de Trento, se encomendó a la OCDE la tarea de identificar mecanismos para supervisar la adopción voluntaria del Código.
Relacionado
Informe y repositorio de la OCDE: IA y capacidad en el mercado laboral
Repositorio de herramientas de la OCDE: IA centrada en la capacidad (1, 2, 3, 4)
El Proceso de IA del G7 en Hiroshima
El Proceso de Hiroshima sobre IA responde a la necesidad de establecer principios y prácticas comunes para la gobernanza de los sistemas avanzados de IA, en particular los modelos fundacionales y la IA generativa. El proceso se basa en los Principios de la OCDE sobre IA y busca codificar prácticas basadas en el riesgo y alineadas con los derechos humanos en el desarrollo, el uso y el despliegue de la IA.
Los Principios de Hiroshima abarcan 11 áreas clave que van desde la mitigación de riesgos a lo largo del ciclo de vida, la supervisión posterior al despliegue, la transparencia y los controles de seguridad, hasta el uso responsable de la IA para abordar retos globales como la salud, el clima y la educación. Estos principios se conciben como un marco vivo y adaptable, desarrollado a partir de las aportaciones de una amplia gama de partes interesadas.
El Marco de Informes HAIP
El Marco de Informes HAIP es una herramienta de notificación voluntaria diseñada para ayudar a las organizaciones a documentar y divulgar sus medidas de mitigación de riesgos, protocolos de seguridad, mecanismos de gobernanza y prácticas de transparencia.
Las características clave del Marco de Informes HAIP incluyen:
Cobertura exhaustiva de los ámbitos de gobernanza de la IA, garantizando la alineación con las mejores prácticas internacionales.
Notificación de transparencia sobre las capacidades del sistema, sus limitaciones y los escenarios de uso indebido.
Documentación de las políticas de gobernanza, la gestión de datos y el seguimiento de incidentes tras la comercialización.
Mecanismos para la procedencia y autenticación de contenidos, incluidas las marcas de agua cuando sea viable.
Datos de implementación de la fase piloto
La fase piloto, llevada a cabo del 19 de julio al 6 de septiembre de 2024, generó comentarios sustantivos de múltiples partes interesadas procedentes de 20 organizaciones de 10 países: Canadá, Dinamarca, Alemania, Israel, Japón, Países Bajos, España, Suiza, Reino Unido y Estados Unidos. Las entidades participantes abarcaban desde grandes empresas tecnológicas hasta startups, incluyendo desarrolladores de sistemas de IA, corporaciones tecnológicas globales, institutos de investigación, instituciones académicas y consultoras de cumplimiento normativo en IA.
Resumen de los resultados de la fase piloto:
14 organizaciones solicitaron la consolidación de preguntas repetitivas para agilizar los procesos de notificación
13 organizaciones solicitaron mejores opciones de formato, incluyendo listas con viñetas e hipervínculos
12 organizaciones requirieron instrucciones más claras para la encuesta, con límites de palabras y ejemplos
9 encuestados solicitaron aclaraciones sobre términos clave ambiguos, como «sistemas avanzados de IA», «riesgos irrazonables» e «incidentes significativos»
6 organizaciones sugirieron una mayor alineación con los mecanismos de notificación voluntaria existentes (Compromisos de Seguridad de la IA de Vanguardia, Compromisos Voluntarios de IA de la Casa Blanca)
Principios de gobernanza y requisitos técnicos
El marco exige una evaluación exhaustiva de los riesgos a lo largo de todo el ciclo de vida de la IA, lo que obliga a las organizaciones a aplicar diversas medidas de prueba internas e independientes externas, incluidas metodologías de equipo rojo (red-teaming). Las especificaciones técnicas incluyen controles de seguridad sólidos que abarcan la seguridad física, la ciberseguridad y las salvaguardas frente a amenazas internas para los pesos de los modelos, los algoritmos, los servidores y los conjuntos de datos.
Compromisos técnicos clave:
Mecanismos de autenticación y procedencia del contenido mediante técnicas de marca de agua e identificación
Sistemas de trazabilidad para conjuntos de datos, procesos y decisiones de desarrollo
Notificación de transparencia para todos los lanzamientos significativos de sistemas avanzados de IA
Protocolos de intercambio responsable de información entre la industria, los gobiernos, la sociedad civil y el mundo académico
Colaboración en el desarrollo de normas técnicas internacionales con las Organizaciones de Normalización (SDO)
Marco de mitigación y supervisión de riesgos
Las organizaciones deben establecer políticas de gobernanza basadas en el riesgo que incluyan medidas de privacidad y supervisión posterior al despliegue para la identificación de vulnerabilidades, el análisis de incidentes y la detección de usos indebidos. El marco prohíbe los sistemas de IA que socaven los valores democráticos, perjudiquen a las comunidades, faciliten el terrorismo, posibiliten actividades delictivas o planteen riesgos sustanciales para la seguridad, en consonancia con el derecho internacional de los derechos humanos y los Principios Rectores de las Naciones Unidas sobre las Empresas y los Derechos Humanos.
Coordinación internacional y desarrollo de normas
La iniciativa promueve el desarrollo de normas técnicas internacionales a través de la OCDE, la Alianza Global sobre IA (GPAI) y la colaboración entre múltiples partes interesadas. Las jurisdicciones mantienen flexibilidad de implementación al tiempo que se adhieren a los principios fundamentales de supervisión. El Comité Empresarial de la OCDE (BIAC) respalda el marco para la interoperabilidad regulatoria, la colaboración transfronteriza y el acceso transparente a la tecnología de IA en todas las jurisdicciones.
Protección de datos y desarrollo ético de la IA
El marco exige una gestión de la calidad de los datos que incluye la supervisión de los datos de entrenamiento para mitigar sesgos perjudiciales, con obligaciones de transparencia para los conjuntos de datos en virtud de los marcos jurídicos aplicables. El desarrollo prioritario se orienta a los retos globales —crisis climática, salud, educación— y apoya los Objetivos de Desarrollo Sostenible de las Naciones Unidas mediante una gestión responsable y centrada en las personas de la IA, y el fomento de la alfabetización digital.
Calendario de implementación y situación actual
El marco operativo de presentación de informes se puso en marcha el 7 de febrero de 2025, durante la Cumbre de Acción sobre IA de París, con la fecha límite para la presentación del primer ciclo de informes fijada en el 15 de abril de 2025 y la publicación prevista para junio de 2025.
Los principales desarrolladores de IA —entre los que se incluyen Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce y Softbank Corp.— se han comprometido a participar en el marco inaugural. Se espera que la OCDE ponga a disposición del público los informes a través de una plataforma de transparencia designada, excluyendo cualquier información comercialmente sensible.
Este marco integral representa un consenso internacional sobre la gobernanza de la IA avanzada, al establecer mecanismos de rendición de cuentas cuantificables manteniendo al mismo tiempo enfoques favorables a la innovación para el desarrollo y el despliegue de tecnologías emergentes en diversos contextos organizativos y marcos jurisdiccionales. Esta iniciativa ejemplifica cómo la cooperación internacional puede impulsar el progreso en la gobernanza de la IA, creando expectativas estandarizadas en materia de transparencia y prácticas de gestión de riesgos a escala global.
• • •
Referencias
¹ Organización para la Cooperación y el Desarrollo Económicos. «Proceso del G7 de Hiroshima sobre IA: Código de Conducta Internacional para las organizaciones que desarrollan sistemas avanzados de IA». OCDE. 2023.
² Organización para la Cooperación y el Desarrollo Económicos. «HAIP: Marco de Informes del Proceso de Hiroshima sobre IA». OCDE. 2024.
³ G7 Italia. «Declaración ministerial sobre los resultados del Proceso de Hiroshima sobre IA y del Diálogo de Trento». Presidencia italiana del G7. 2024.
⁴ Observatorio de Políticas de IA de la OCDE. «Marco de la OCDE para la clasificación de los sistemas de IA». OCDE. 2022.
⁵ Observatorio de Políticas de IA de la OCDE. «Principios de la OCDE sobre IA: Recomendación del Consejo sobre Inteligencia Artificial». OCDE. 2019.
⁶ Organización para la Cooperación y el Desarrollo Económicos. «Resumen de la fase piloto del Marco de Informes HAIP». OCDE. 2025.