OCDE: Estrutura de Relatórios do Processo de IA do G7 em Hiroshima (HAIP) [PT]

Leia em: EN, PT

Esta página é uma tradução do artigo original em inglês. Observe que a navegação está disponível somente em inglês.

Contribuímos com o grupo de trabalho e a chamada para a Estrutura de Relatórios (HAIP) do Processo de IA do G7 em Hiroshima, apoiada pela OCDE (1). A estrutura foi apresentada durante a Cúpula de Ação sobre IA em Paris, onde demonstramos partes do MOOC dedicado à IA centrada na acessibilidade, e participamos como testemunhas de dois relatórios e consultas públicas que incorporaram nossas contribuições.

Esta Estrutura de Relatórios é um resultado direto do Processo de IA do G7 em Hiroshima, iniciado sob a presidência japonesa do G7 em 2023 e posteriormente desenvolvido sob a presidência italiana do G7 em 2024. Baseia-se no Código de Conduta Internacional do Processo de IA de Hiroshima para Organizações que Desenvolvem Sistemas Avançados de IA, uma iniciativa marcante para promover a transparência e a responsabilização no desenvolvimento de sistemas avançados de IA. A pedido do G7, e em conformidade com a Declaração de Trento, a OCDE foi encarregada de identificar mecanismos para monitorar a adoção voluntária do Código.

Relacionado

O Processo de IA do G7 em Hiroshima

O Processo de IA de Hiroshima responde à necessidade de estabelecer princípios e práticas comuns na governança de sistemas avançados de IA — em particular modelos de base e IA generativa. O processo fundamenta-se nos Princípios de IA da OCDE e busca codificar práticas baseadas em riscos e alinhadas aos direitos humanos no desenvolvimento, uso e implantação da IA.

Os Princípios de Hiroshima abrangem 11 áreas-chave, que vão desde a mitigação de riscos ao longo do ciclo de vida, o monitoramento pós-implantação, a transparência e os controles de segurança, até o uso responsável da IA para desafios globais como saúde, clima e educação. Esses princípios são concebidos como uma estrutura viva e adaptável, desenvolvida com ampla participação das partes interessadas.

A Estrutura de Relatórios HAIP

A Estrutura de Relatórios HAIP é uma ferramenta de reporte voluntário projetada para ajudar organizações a documentar e divulgar suas medidas de mitigação de riscos, protocolos de segurança, mecanismos de governança e práticas de transparência.

Os principais recursos da Estrutura de Relatórios HAIP incluem:

  • Cobertura abrangente dos domínios de governança de IA, garantindo o alinhamento com as melhores práticas internacionais.

  • Reporte de transparência sobre capacidades do sistema, limitações e cenários de uso indevido.

  • Documentação de políticas de governança, gestão de dados e monitoramento de incidentes pós-comercialização.

  • Mecanismos de proveniência e autenticação de conteúdo, incluindo marca d'água quando viável.

Dados da Implementação da Fase Piloto

A fase piloto, realizada de 19 de julho a 6 de setembro de 2024, gerou feedback substancial de múltiplas partes interessadas, com a participação de 20 organizações em 10 países: Canadá, Dinamarca, Alemanha, Israel, Japão, Países Baixos, Espanha, Suíça, Reino Unido e Estados Unidos. As entidades participantes abrangeram desde grandes empresas de tecnologia até startups, incluindo desenvolvedores de sistemas de IA, corporações globais de tecnologia, institutos de pesquisa, instituições acadêmicas e empresas de consultoria em conformidade com IA.

Resumo dos resultados do piloto:

  • 14 organizações solicitaram a consolidação de perguntas repetitivas para simplificar os processos de reporte

  • 13 organizações demandaram opções de formatação aprimoradas, incluindo marcadores e hiperlinks

  • 12 organizações exigiram instruções mais claras para o questionário, com limites de palavras e exemplos

  • 9 respondentes solicitaram esclarecimentos sobre termos-chave ambíguos, como "sistemas avançados de IA", "riscos irracionais" e "incidentes significativos"

  • 6 organizações sugeriram maior alinhamento com mecanismos de reporte voluntário já existentes (Frontier AI Safety Commitments, Compromissos Voluntários de IA da Casa Branca)

Princípios de Governança e Requisitos Técnicos

A estrutura exige uma avaliação de riscos abrangente ao longo do ciclo de vida da IA, requerendo que as organizações implementem diversas medidas de teste internas e externas independentes, incluindo metodologias de red teaming. As especificações técnicas incluem controles de segurança robustos que abrangem segurança física, segurança cibernética e proteções contra ameaças internas para pesos de modelos, algoritmos, servidores e conjuntos de dados.

Principais Compromissos Técnicos:

  • Mecanismos de autenticação e proveniência de conteúdo por meio de técnicas de marca d'água e identificação

  • Sistemas de rastreabilidade para conjuntos de dados, processos e decisões de desenvolvimento

  • Reporte de transparência para todos os lançamentos significativos de sistemas avançados de IA

  • Protocolos responsáveis de compartilhamento de informações entre indústria, governo, sociedade civil e academia

  • Colaboração no desenvolvimento de normas técnicas internacionais com Organizações de Desenvolvimento de Normas (SDOs)

Estrutura de Mitigação e Monitoramento de Riscos

As organizações devem estabelecer políticas de governança baseadas em riscos, abrangendo medidas de privacidade e monitoramento pós-implantação para identificação de vulnerabilidades, análise de incidentes e detecção de uso indevido. A estrutura proíbe sistemas de IA que comprometam os valores democráticos, causem danos às comunidades, facilitem o terrorismo, viabilizem atividades criminosas ou representem riscos substanciais à segurança, em conformidade com o direito internacional dos direitos humanos e os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU.

Coordenação Internacional e Desenvolvimento de Normas

A iniciativa promove normas técnicas internacionais por meio da OCDE, da Parceria Global sobre IA (GPAI) e da colaboração multissetorial. As jurisdições mantêm flexibilidade de implementação, ao mesmo tempo em que aderem aos princípios fundamentais de monitoramento. A Business at OECD (BIAC) endossa a estrutura visando à interoperabilidade regulatória, à colaboração transfronteiriça e ao acesso transparente à tecnologia de IA em diferentes jurisdições.

Proteção de Dados e Desenvolvimento Ético da IA

A estrutura exige a gestão da qualidade dos dados, incluindo a supervisão dos dados de treinamento para mitigar vieses prejudiciais, com obrigações de transparência sobre conjuntos de dados no âmbito dos marcos legais aplicáveis. O desenvolvimento prioritário foca em desafios globais — crise climática, saúde, educação — apoiando os Objetivos de Desenvolvimento Sustentável da ONU por meio de uma gestão responsável e centrada no ser humano da IA e do avanço do letramento digital.

Cronograma de Implementação e Situação Atual

A estrutura de reporte operacional foi lançada em 7 de fevereiro de 2025, durante a Cúpula de Ação sobre IA em Paris, com o primeiro ciclo de submissões previsto até 15 de abril de 2025 e publicação agendada para junho de 2025.

Os principais desenvolvedores de IA — incluindo Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce e Softbank Corp. — comprometeram-se a participar da estrutura inaugural. Os relatórios devem ser disponibilizados publicamente pela OCDE por meio de uma plataforma de transparência designada, excluindo qualquer informação comercialmente sensível.

A estrutura abrangente representa um consenso internacional sobre a governança de sistemas avançados de IA, estabelecendo mecanismos mensuráveis de responsabilização enquanto preserva abordagens favoráveis à inovação para o desenvolvimento e a implantação de tecnologias emergentes em diferentes contextos organizacionais e marcos jurisdicionais. Esta iniciativa exemplifica como a cooperação internacional pode impulsionar o progresso na governança da IA, criando expectativas padronizadas para práticas de transparência e gestão de riscos em escala global.

• • •

Referências

¹ Organização para a Cooperação e o Desenvolvimento Econômico. "Processo de IA do G7 em Hiroshima: Código de Conduta Internacional para Organizações que Desenvolvem Sistemas Avançados de IA." OCDE. 2023.

² Organização para a Cooperação e o Desenvolvimento Econômico. "HAIP: Estrutura de Relatórios do Processo de IA de Hiroshima." OCDE. 2024.

³ G7 Itália. "Declaração Ministerial sobre o Processo de IA de Hiroshima e os Resultados do Diálogo de Trento." Presidência italiana do G7. 2024.

⁴ Observatório de Políticas de IA da OCDE. "Estrutura da OCDE para a Classificação de Sistemas de IA." OCDE. 2022.

⁵ Observatório de Políticas de IA da OCDE. "Princípios de IA da OCDE: Recomendação do Conselho sobre Inteligência Artificial." OCDE. 2019.

⁶ Organização para a Cooperação e o Desenvolvimento Econômico. "Resumo da Fase Piloto da Estrutura de Relatórios HAIP." OCDE. 2025.