La Declaración de Bletchley y la seguridad de la IA [ES]
Esta página es una traducción del artículo original en inglés. Tenga en cuenta que la navegación está disponible únicamente en inglés.
Hemos contribuido a la convocatoria abierta y al debate público sobre la Declaración de Bletchley, cuyo objetivo es ampliar aún más la perspectiva multisectorial sobre la seguridad de la IA, incorporando casos y escenarios que incluyen infraestructuras públicas y críticas, así como los ámbitos de la sanidad, la educación y las tecnologías de asistencia y accesibilidad.
La Declaración de Bletchley es un acuerdo internacional histórico firmado el 1 de noviembre de 2023 durante la Cumbre sobre Seguridad de la IA celebrada en Bletchley Park, Reino Unido. Respaldada por 28 países —entre ellos Estados Unidos, China y estados miembros de la Unión Europea—, así como por la propia UE, la declaración establece un compromiso compartido con el desarrollo seguro y responsable de la inteligencia artificial (IA), con especial atención a los sistemas de «IA de vanguardia»: modelos de propósito general de gran capacidad con un impacto social potencialmente significativo.
Relacionado
La Declaración de Seúl y los compromisos de seguridad de la IA de vanguardia
Código de prácticas de IA de propósito general (Grupos de Trabajo 2 y 3)
Principios y objetivos de la Declaración
IA centrada en el ser humano y responsable: La declaración subraya que la IA debe diseñarse, desarrollarse, implementarse y utilizarse de manera segura, centrada en el ser humano, fiable y responsable.
Reconocimiento de los riesgos: Se reconoce el potencial de daños graves, incluso catastróficos, derivados de las capacidades más avanzadas de los modelos de IA de vanguardia, tanto por un uso indebido deliberado como por consecuencias no deseadas.
Cooperación internacional: Los signatarios coinciden en que estos riesgos se abordan mejor mediante la colaboración internacional, con el objetivo de construir una comprensión compartida, científica y basada en evidencia, de los riesgos de la IA, y de desarrollar políticas basadas en el riesgo que garanticen la seguridad.
Equilibrio entre innovación y regulación: La declaración destaca la importancia de un enfoque de gobernanza y regulación favorable a la innovación y proporcionado, que maximice los beneficios de la IA al tiempo que mitigue los riesgos asociados.
Discurso público
Desde la perspectiva de los sistemas públicos y las infraestructuras críticas, hemos destacado lo siguiente:
Casos de uso y pertinencia: Se subraya la importancia de centrarse en casos de uso y aplicaciones reales de la IA, tal como ilustran las contribuciones a los repositorios de herramientas de seguridad e incidentes de IA de la OCDE. La seguridad y la gobernanza de la IA deben estar ancladas en experiencias concretas y despliegues tangibles.
Acceso abierto y transparencia: Se aboga por el acceso abierto a los repositorios de tecnologías públicas y de asistencia, incluyendo no solo las aplicaciones, sino también los modelos e infraestructuras subyacentes. La contribución al repositorio de tecnologías de asistencia de la OCDE refleja este compromiso con la accesibilidad y la transparencia.
Evaluaciones de riesgos: Se reclaman evaluaciones de riesgos exhaustivas e inclusivas que tengan en cuenta explícitamente a menores, pacientes, cuidadores y otras poblaciones vulnerables, grupos que con frecuencia quedan al margen de los marcos normativos actuales.
Contexto geográfico y socioeconómico: Se destaca la importancia de considerar los patrones socioeconómicos y los contextos históricos de las distintas regiones al implementar y evaluar sistemas de IA, con el fin de garantizar una gobernanza pertinente a escala global.
Consideraciones de software y hardware en los modelos de vanguardia: Se recomienda un enfoque holístico para evaluar los modelos de IA de vanguardia —como los grandes modelos de lenguaje (LLM), los modelos visión-lenguaje (VLM) y los modelos fundacionales 3D— que incluya los ecosistemas de hardware asociados, entre ellos los sensores e interfaces hápticas utilizados en infraestructuras públicas y de asistencia.
Entornos de formación y entornos regulatorios de pruebas: Se apoya el desarrollo de entornos de formación interdisciplinarios y del mundo real que integren componentes de software y hardware. Estos deben incluir bancos de pruebas y entornos regulatorios de pruebas (sandboxes) para desarrollar, probar y validar de forma segura los sistemas de IA en condiciones controladas pero realistas.
Normas de accesibilidad multimodal: Se propone la implementación de sistemas de notificación y comunicación multimodales estandarizados (por ejemplo, señales auditivas, visuales, hápticas y textuales simplificadas) para garantizar que los sistemas de IA sean accesibles a usuarios con discapacidades sensoriales o cognitivas.
Supervisión humana y responsabilidad: Se recomiendan protocolos de supervisión humana en cascada para las tecnologías de asistencia basadas en IA, especialmente las que influyen en la autonomía o en decisiones críticas. Esto incluye procesos de verificación multinivel entre las partes interesadas para garantizar la fiabilidad y la seguridad.
Bancos de pruebas en entornos críticos: Se fomenta la creación de bancos de pruebas específicos por ámbito que reproduzcan entornos de servicios esenciales —como hospitales, escuelas e instalaciones para el envejecimiento en el propio hogar— con el fin de evaluar el impacto real sobre el acceso, la calidad del servicio y la autonomía de los usuarios.
Acceso a la investigación para la sociedad civil: Se aboga por marcos de acceso a la investigación seguros y transparentes que permitan a organizaciones de la sociedad civil e investigadores independientes estudiar los sistemas de IA en escenarios del mundo real, con protecciones especiales para los usuarios vulnerables.
Al firmar la carta abierta de la Declaración de Bletchley, reafirmamos nuestro compromiso de fortalecer el diálogo global sobre la seguridad y la accesibilidad de la IA a través de una pluralidad de enfoques complementarios. Abogamos por la armonización de los marcos de gobernanza emergentes —como el Marco de Gestión de Riesgos de IA del NIST, las normas ISO/IEC y la Ley de IA de la UE— haciendo hincapié en que una supervisión eficaz debe integrar las perspectivas y metodologías de múltiples partes interesadas. Al articular los estándares técnicos con el diseño centrado en las personas e incorporar la accesibilidad a lo largo de todo el ciclo de vida de la IA, podemos garantizar que los modelos de vanguardia no solo mitiguen los riesgos, sino que amplíen activamente las capacidades de quienes más necesitan tecnologías de asistencia. Este enfoque integrado es esencial para garantizar que la IA promueva la dignidad humana, la autonomía y el acceso en todas las comunidades y contextos.
• • •
Referencias
¹ Gobierno del Reino Unido. «Declaración de Bletchley de los países participantes en la Cumbre sobre Seguridad de la IA, 1-2 de noviembre de 2023». GOV.UK. 1 de noviembre de 2023.
² Gobierno del Reino Unido. «Resumen del presidente de la Cumbre sobre Seguridad de la IA 2023, Bletchley Park». GOV.UK. 2 de noviembre de 2023.
³ NIST. «Marco de gestión de riesgos de inteligencia artificial (AI RMF 1.0)». NIST AI.100-1. Instituto Nacional de Estándares y Tecnología. 26 de enero de 2023.
⁴ Organización Internacional de Normalización. «ISO/IEC 23894:2023 - Tecnología de la información — Inteligencia artificial — Orientación sobre la gestión de riesgos». 2023.
⁵ OECD.AI. «AI Incidents Monitor (AIM) - Plataforma global de incidentes y riesgos de IA». 2023.
⁶ OCDE. «Definición de incidentes de IA y términos relacionados». Organización para la Cooperación y el Desarrollo Económicos. 2024.