A Declaração de Seul e os Compromissos de Segurança da IA de Fronteira [PT]

Leia em: EN, PT

Esta página é uma tradução do artigo original em inglês. Observe que a navegação está disponível somente em inglês.

Na esteira da Declaração de Seul para uma IA Segura, Inovadora e Inclusiva, unimo-nos à Korea AI Safety para aprofundar como os algoritmos podem impulsionar taxonomias públicas, assistivas e de acessibilidade de forma segura, abrangendo tanto os aspectos dos modelos quanto da infraestrutura crítica relacionada.

Relacionado


A Declaração de Segurança da IA de Seul, adotada em 21 de maio de 2024, durante a Cúpula de IA de Seul, baseia-se na Declaração de Bletchley do ano anterior. Assinada por líderes de 10 países e da União Europeia, a declaração enfatiza a necessidade de colaboração internacional para garantir o desenvolvimento seguro, inovador e inclusivo da inteligência artificial (IA). Ela ressalta a importância de uma IA centrada no ser humano e alinhada ao Estado de Direito, e defende a redução das desigualdades digitais e o fortalecimento da cooperação global para enfrentar os desafios e aproveitar as oportunidades da IA.

Entre os principais resultados da Cúpula de Seul está a criação de uma rede internacional de institutos de segurança de IA, que reúne organizações do Reino Unido, Estados Unidos, Japão, França, Alemanha, Itália, Cingapura, Coreia do Sul, Austrália, Canadá e União Europeia. O objetivo é fomentar a colaboração em pesquisa de segurança, compartilhar boas práticas e desenvolver recursos técnicos para o avanço da segurança da IA.

Outro resultado relevante é a introdução dos Compromissos de Segurança da IA de Fronteira. Dezesseis empresas globais de IA, incluindo Amazon, Google, Meta, Microsoft, Anthropic e OpenAI, comprometeram-se a definir e divulgar os "riscos intoleráveis" apresentados pelos sistemas avançados de IA. Esses compromissos concentram-se em áreas críticas como segurança cibernética, autonomia dos modelos e perturbações sociais. As empresas prometeram publicar estruturas de segurança que detalham suas estratégias de gestão de riscos, incluindo maior transparência, realização de red teaming interno e externo e estímulo ao reporte de vulnerabilidades por terceiros. Esses esforços representam um passo importante rumo à gestão proativa de riscos e ao estabelecimento de padrões globais para o desenvolvimento seguro de IA.

Compromissos de Segurança da IA de Fronteira

A declaração é complementada pelos Compromissos de Segurança da IA de Fronteira — um conjunto de compromissos voluntários das principais organizações de IA para gerenciar os riscos graves associados a modelos de IA poderosos e de propósito geral.

  • Avaliação Rigorosa de Riscos: as empresas se comprometem a avaliar os danos potenciais antes e durante o treinamento e antes da implantação de seus modelos de IA. Isso envolve tanto testes internos quanto avaliações externas.

  • Definição e Gestão de Riscos "Intoleráveis": um compromisso central é estabelecer limites claros para riscos graves e inaceitáveis. Se esses limites forem atingidos e as medidas de mitigação forem insuficientes, as organizações se comprometem a não desenvolver nem implantar o modelo.

  • Governança Robusta e Transparência: isso envolve a criação de estruturas internas de segurança sólidas, reporte público sobre o progresso, engajamento com especialistas externos para "red teaming" (teste de estresse da IA), reforço da segurança cibernética e compartilhamento seletivo de informações sobre as capacidades e riscos dos modelos.

Segurança da IA e Sistemas Públicos

Nossa contribuição e participação no debate público incluiu reflexões sobre como os Compromissos de Segurança da IA de Fronteira podem ser aprimorados para se alinhar a protocolos e taxonomias amplos de sistemas públicos e assistivos, com foco em modelos de IA fundamentais e aplicados, como Grandes Modelos de Linguagem (LLMs), Pequenos Modelos de Linguagem (SLMs), Modelos de Visão-Linguagem (VLMs) e Modelos de Fundação 3D emergentes com capacidades multimodais. Esses modelos são essenciais para tecnologias assistivas, saúde e contextos públicos. Os Institutos de Segurança da IA devem estruturar seus esforços e capacidades para abranger uma ampla gama de sistemas e interfaces, desde robótica assistiva até ferramentas de acessibilidade. Atenção especial deve ser dada a sandboxes regulatórias e ambientes de testes que simulem condições do mundo real, garantindo que os modelos de IA sejam seguros e acessíveis. Por exemplo, sistemas de IA assistiva — como dispositivos habilitados por voz ou auxiliares de mobilidade — devem passar por testes de conformidade nesses ambientes para assegurar que operem com segurança, especialmente ao interagir com usuários com diferentes deficiências cognitivas, sensoriais ou físicas.

Os modelos de IA de fronteira devem ser avaliados com base em fatores técnicos críticos, como requisitos de dados, poder computacional, consumo de energia e resiliência cibernética em diferentes setores. Essa avaliação deve também considerar o impacto prático em áreas públicas de alto risco, como ambientes de trabalho, saúde e educação. Os riscos e limiares devem ser definidos por aplicações do mundo real, e não apenas por capacidades teóricas. Por exemplo, a implantação de um modelo de fundação 3D em tecnologias assistivas ou na área da saúde requer avaliação rigorosa de robustez para evitar usos indevidos. Por fim, em consonância com as contribuições públicas recebidas, os desenvolvedores de IA devem divulgar tanto as avaliações de segurança pré-mitigação quanto as pós-mitigação, oferecendo uma visão mais clara da eficácia de suas estratégias de gestão de riscos.

• • •

Referências

¹ Governo do Reino Unido. "Declaração de Seul para uma IA Segura, Inovadora e Inclusiva pelos participantes da sessão de líderes: Cúpula de IA de Seul, 21 de maio de 2024." GOV.UK. 21 de maio de 2024.

² Governo do Reino Unido. "Declaração de Intenções de Seul para a Cooperação Internacional em Ciência da Segurança da IA, Cúpula de IA de Seul 2024 (Anexo)." GOV.UK. 21 de maio de 2024.

³ Governo do Reino Unido. "Compromissos de Segurança da IA de Fronteira, Cúpula de IA de Seul 2024." GOV.UK. 21 de maio de 2024.

⁴ Governo do Reino Unido. "Declaração Ministerial de Seul para o Avanço da Segurança, Inovação e Inclusão da IA: Cúpula de IA de Seul 2024." GOV.UK. 22 de maio de 2024.

⁵ Centro de Estudos Estratégicos e Internacionais. "A Cúpula de IA de Seul." 15 de outubro de 2024.

⁶ Instituto Econômico da Coreia na América. "Principais Compromissos Assumidos na Cúpula de IA de Seul." 29 de maio de 2024.