A Declaração de Bletchley e a Segurança da IA [PT-BR]
Esta página éuma tradução do artigo original em inglês. Observe que a navegação está disponível somente em inglês.
Contribuímos para a convocatória aberta e o debate público sobre a Declaração de Bletchley, cujo objetivo é ampliar ainda mais a visão de múltiplas partes interessadas sobre a segurança da IA, trazendo casos e cenários que abrangem infraestruturas públicas e críticas, bem como as áreas de saúde, educação e tecnologias assistivas e de acessibilidade.
A Declaração de Bletchley é um acordo internacional histórico assinado em 1º de novembro de 2023, durante a Cúpula de Segurança da IA realizada em Bletchley Park, no Reino Unido. Endossada por 28 países — incluindo os Estados Unidos, a China e membros da União Europeia —, bem como pela própria UE, a declaração estabelece um compromisso comum com o desenvolvimento seguro e responsável da inteligência artificial (IA), com foco especial nos sistemas de «IA de fronteira», que são modelos de uso geral altamente capazes com impactos sociais potencialmente significativos.
Relacionado
A Declaração de Seul e os Compromissos de Segurança da IA de Fronteira
O Pacto de IA e os Próximos Passos para a Implementação da Lei de IA: Acesso e Sistemas Públicos
Código de Práticas de IA de Propósito Geral (Grupos de Trabalho 2, 3)
Princípios e Objetivos da Declaração
IA Centrada no Ser Humano e Responsável: A declaração enfatiza que a IA deve ser projetada, desenvolvida, implantada e utilizada de forma segura, centrada no ser humano, confiável e responsável.
Reconhecimento dos riscos: Reconhece o potencial de danos graves, inclusive catastróficos, decorrentes das capacidades mais significativas dos modelos de IA de fronteira, seja por uso indevido deliberado ou por consequências não intencionais.
Cooperação internacional: Os signatários concordam que esses riscos são mais bem enfrentados por meio da colaboração internacional, com o objetivo de construir uma compreensão científica e baseada em evidências sobre os riscos da IA e de desenvolver políticas baseadas em risco para garantir a segurança.
Equilíbrio entre inovação e regulamentação: A declaração ressalta a importância de uma abordagem de governança e regulação pró-inovação e proporcional, que maximize os benefícios da IA ao mesmo tempo em que aborda os riscos associados.
Debate público
Sob a perspectiva dos sistemas públicos e da infraestrutura crítica, destacamos:
Cenários e relevância: Enfatizar a importância de focar em casos de uso e aplicações reais da IA, conforme ilustrado pelas contribuições aos Repositórios de Ferramentas de Segurança e Acidentes de IA da OCDE. A segurança e a governança da IA devem estar ancoradas em experiências concretas e implantações tangíveis.
Acesso aberto e transparência: Defender o acesso aberto a repositórios de tecnologias públicas e assistivas, incluindo não apenas aplicações, mas também os modelos e a infraestrutura subjacentes. A contribuição ao repositório de tecnologias assistivas da OCDE reflete esse compromisso com a acessibilidade e a transparência.
Avaliações de risco: Exigir avaliações de risco abrangentes e inclusivas que considerem explicitamente menores, pacientes, cuidadores e outras populações vulneráveis — grupos frequentemente negligenciados nos marcos regulatórios vigentes.
Contexto geográfico e socioeconômico: Destacar a importância de considerar padrões socioeconômicos e contextos históricos de diferentes regiões ao implementar e avaliar sistemas de IA, assegurando uma governança globalmente relevante.
Considerações sobre software e hardware em modelos de fronteira: Recomendar uma abordagem holística para avaliar modelos de IA de fronteira — como grandes modelos de linguagem (LLMs), modelos de visão-linguagem (VLMs) e modelos de fundação 3D — incorporando os ecossistemas de hardware de suporte, incluindo sensores e interfaces hápticas utilizadas em infraestruturas públicas e assistivas.
Ambientes de treinamento e sandboxes regulatórias: Apoiar o desenvolvimento de ambientes de treinamento interdisciplinares e baseados no mundo real que integrem componentes de software e hardware. Estes devem incluir bancos de testes e sandboxes regulatórias para desenvolver, testar e validar sistemas de IA com segurança, em condições controladas mas realistas.
Padrões de acessibilidade multimodal: Propor a implementação de sistemas padronizados e multimodais de notificação e comunicação (por exemplo, sinais auditivos, visuais, hápticos e textuais simplificados) para garantir que os sistemas de IA sejam acessíveis a usuários com deficiências sensoriais ou cognitivas.
Supervisão humana e responsabilização: Recomendar protocolos de supervisão humana em cascata para tecnologias assistivas baseadas em IA, especialmente aquelas que influenciam a autonomia ou decisões críticas. Isso inclui processos de verificação em múltiplos níveis entre as partes interessadas para garantir confiabilidade e segurança.
Ambientes de teste críticos: Incentivar a criação de ambientes de teste específicos por domínio que repliquem contextos de serviços essenciais — como hospitais, escolas e instalações de envelhecimento no próprio domicílio — para avaliar os impactos reais sobre o acesso, a qualidade do serviço e a autonomia dos usuários.
Acesso à pesquisa para a sociedade civil: Defender estruturas de acesso à pesquisa seguras e transparentes que permitam a organizações da sociedade civil e pesquisadores independentes estudar sistemas de IA em cenários do mundo real, com proteções especiais para usuários vulneráveis.
Ao assinar a carta aberta da Declaração de Bletchley, reafirmamos nosso compromisso de fortalecer o diálogo global sobre segurança e acessibilidade da IA por meio de uma pluralidade de abordagens complementares. Defendemos a harmonização de estruturas de governança emergentes — como a Estrutura de Gestão de Riscos de IA do NIST, as normas ISO/IEC e a Lei de IA da UE —, enfatizando que uma supervisão eficaz deve integrar perspectivas e metodologias de múltiplas partes interessadas. Ao articular padrões técnicos com o design centrado no ser humano e incorporar a acessibilidade ao longo de todo o ciclo de vida da IA, podemos garantir que os modelos de fronteira não apenas mitiguem riscos, mas também ampliem ativamente as capacidades daqueles que mais necessitam de tecnologias assistivas. Essa abordagem integrada é essencial para garantir que a IA promova a dignidade humana, a autonomia e o acesso em todas as comunidades e contextos.
• • •
Referências
¹ Governo do Reino Unido. «Declaração de Bletchley dos países participantes da Cúpula de Segurança em IA, 1–2 de novembro de 2023». GOV.UK. 1º de novembro de 2023.
² Governo do Reino Unido. «Resumo do presidente da Cúpula de Segurança em IA 2023, Bletchley Park». GOV.UK. 2 de novembro de 2023.
³ NIST. «Estrutura de Gestão de Riscos de Inteligência Artificial (AI RMF 1.0)». NIST AI.100-1. Instituto Nacional de Padrões e Tecnologia. 26 de janeiro de 2023.
⁴ Organização Internacional de Normalização. «ISO/IEC 23894:2023 — Tecnologia da informação — Inteligência artificial — Orientação sobre gestão de riscos». 2023.
⁵ OECD.AI. «Monitor de Incidentes de IA (AIM) — Plataforma Global de Incidentes e Riscos de IA». 2023.
⁶ OCDE. «Definição de incidentes de IA e termos relacionados». Organização para a Cooperação e o Desenvolvimento Econômico. 2024.