OCDE: Estrutura de Relatórios do Processo de IA do G7 em Hiroshima (HAIP) [PT]
Esta página é uma tradução do artigo original em inglês. Observe que a navegação está disponível somente em inglês.
Contribuímos com o grupo de trabalho e a chamada para a Estrutura de Relatórios (HAIP) do Processo de IA do G7 em Hiroshima, apoiada pela OCDE (1). A estrutura foi apresentada durante a Cúpula de Ação sobre IA em Paris, onde demonstramos partes do MOOC dedicado à IA centrada na acessibilidade, e participamos como testemunhas de dois relatórios e consultas públicas que incorporaram nossas contribuições.
Esta Estrutura de Relatórios é um resultado direto do Processo de IA do G7 em Hiroshima, iniciado sob a presidência japonesa do G7 em 2023 e posteriormente desenvolvido sob a presidência italiana do G7 em 2024. Baseia-se no Código de Conduta Internacional do Processo de IA de Hiroshima para Organizações que Desenvolvem Sistemas Avançados de IA, uma iniciativa marcante para promover a transparência e a responsabilização no desenvolvimento de sistemas avançados de IA. A pedido do G7, e em conformidade com a Declaração de Trento, a OCDE foi encarregada de identificar mecanismos para monitorar a adoção voluntária do Código.
Relacionado
Relatório e repositório da OCDE – IA e capacidade no trabalho
Repositório de ferramentas da OCDE – IA centrada na capacidade (1, 2, 3, 4)
O Processo de IA do G7 em Hiroshima
O Processo de IA de Hiroshima responde à necessidade de estabelecer princípios e práticas comuns na governança de sistemas avançados de IA — em particular modelos de base e IA generativa. O processo fundamenta-se nos Princípios de IA da OCDE e busca codificar práticas baseadas em riscos e alinhadas aos direitos humanos no desenvolvimento, uso e implantação da IA.
Os Princípios de Hiroshima abrangem 11 áreas-chave, que vão desde a mitigação de riscos ao longo do ciclo de vida, o monitoramento pós-implantação, a transparência e os controles de segurança, até o uso responsável da IA para desafios globais como saúde, clima e educação. Esses princípios são concebidos como uma estrutura viva e adaptável, desenvolvida com ampla participação das partes interessadas.
A Estrutura de Relatórios HAIP
A Estrutura de Relatórios HAIP é uma ferramenta de reporte voluntário projetada para ajudar organizações a documentar e divulgar suas medidas de mitigação de riscos, protocolos de segurança, mecanismos de governança e práticas de transparência.
Os principais recursos da Estrutura de Relatórios HAIP incluem:
Cobertura abrangente dos domínios de governança de IA, garantindo o alinhamento com as melhores práticas internacionais.
Reporte de transparência sobre capacidades do sistema, limitações e cenários de uso indevido.
Documentação de políticas de governança, gestão de dados e monitoramento de incidentes pós-comercialização.
Mecanismos de proveniência e autenticação de conteúdo, incluindo marca d'água quando viável.
Dados da Implementação da Fase Piloto
A fase piloto, realizada de 19 de julho a 6 de setembro de 2024, gerou feedback substancial de múltiplas partes interessadas, com a participação de 20 organizações em 10 países: Canadá, Dinamarca, Alemanha, Israel, Japão, Países Baixos, Espanha, Suíça, Reino Unido e Estados Unidos. As entidades participantes abrangeram desde grandes empresas de tecnologia até startups, incluindo desenvolvedores de sistemas de IA, corporações globais de tecnologia, institutos de pesquisa, instituições acadêmicas e empresas de consultoria em conformidade com IA.
Resumo dos resultados do piloto:
14 organizações solicitaram a consolidação de perguntas repetitivas para simplificar os processos de reporte
13 organizações demandaram opções de formatação aprimoradas, incluindo marcadores e hiperlinks
12 organizações exigiram instruções mais claras para o questionário, com limites de palavras e exemplos
9 respondentes solicitaram esclarecimentos sobre termos-chave ambíguos, como "sistemas avançados de IA", "riscos irracionais" e "incidentes significativos"
6 organizações sugeriram maior alinhamento com mecanismos de reporte voluntário já existentes (Frontier AI Safety Commitments, Compromissos Voluntários de IA da Casa Branca)
Princípios de Governança e Requisitos Técnicos
A estrutura exige uma avaliação de riscos abrangente ao longo do ciclo de vida da IA, requerendo que as organizações implementem diversas medidas de teste internas e externas independentes, incluindo metodologias de red teaming. As especificações técnicas incluem controles de segurança robustos que abrangem segurança física, segurança cibernética e proteções contra ameaças internas para pesos de modelos, algoritmos, servidores e conjuntos de dados.
Principais Compromissos Técnicos:
Mecanismos de autenticação e proveniência de conteúdo por meio de técnicas de marca d'água e identificação
Sistemas de rastreabilidade para conjuntos de dados, processos e decisões de desenvolvimento
Reporte de transparência para todos os lançamentos significativos de sistemas avançados de IA
Protocolos responsáveis de compartilhamento de informações entre indústria, governo, sociedade civil e academia
Colaboração no desenvolvimento de normas técnicas internacionais com Organizações de Desenvolvimento de Normas (SDOs)
Estrutura de Mitigação e Monitoramento de Riscos
As organizações devem estabelecer políticas de governança baseadas em riscos, abrangendo medidas de privacidade e monitoramento pós-implantação para identificação de vulnerabilidades, análise de incidentes e detecção de uso indevido. A estrutura proíbe sistemas de IA que comprometam os valores democráticos, causem danos às comunidades, facilitem o terrorismo, viabilizem atividades criminosas ou representem riscos substanciais à segurança, em conformidade com o direito internacional dos direitos humanos e os Princípios Orientadores sobre Empresas e Direitos Humanos da ONU.
Coordenação Internacional e Desenvolvimento de Normas
A iniciativa promove normas técnicas internacionais por meio da OCDE, da Parceria Global sobre IA (GPAI) e da colaboração multissetorial. As jurisdições mantêm flexibilidade de implementação, ao mesmo tempo em que aderem aos princípios fundamentais de monitoramento. A Business at OECD (BIAC) endossa a estrutura visando à interoperabilidade regulatória, à colaboração transfronteiriça e ao acesso transparente à tecnologia de IA em diferentes jurisdições.
Proteção de Dados e Desenvolvimento Ético da IA
A estrutura exige a gestão da qualidade dos dados, incluindo a supervisão dos dados de treinamento para mitigar vieses prejudiciais, com obrigações de transparência sobre conjuntos de dados no âmbito dos marcos legais aplicáveis. O desenvolvimento prioritário foca em desafios globais — crise climática, saúde, educação — apoiando os Objetivos de Desenvolvimento Sustentável da ONU por meio de uma gestão responsável e centrada no ser humano da IA e do avanço do letramento digital.
Cronograma de Implementação e Situação Atual
A estrutura de reporte operacional foi lançada em 7 de fevereiro de 2025, durante a Cúpula de Ação sobre IA em Paris, com o primeiro ciclo de submissões previsto até 15 de abril de 2025 e publicação agendada para junho de 2025.
Os principais desenvolvedores de IA — incluindo Amazon, Anthropic, Fujitsu, Google, KDDI Corporation, Microsoft, NEC Corporation, NTT, OpenAI, Preferred Networks Inc., Rakuten Group Inc., Salesforce e Softbank Corp. — comprometeram-se a participar da estrutura inaugural. Os relatórios devem ser disponibilizados publicamente pela OCDE por meio de uma plataforma de transparência designada, excluindo qualquer informação comercialmente sensível.
A estrutura abrangente representa um consenso internacional sobre a governança de sistemas avançados de IA, estabelecendo mecanismos mensuráveis de responsabilização enquanto preserva abordagens favoráveis à inovação para o desenvolvimento e a implantação de tecnologias emergentes em diferentes contextos organizacionais e marcos jurisdicionais. Esta iniciativa exemplifica como a cooperação internacional pode impulsionar o progresso na governança da IA, criando expectativas padronizadas para práticas de transparência e gestão de riscos em escala global.
• • •
Referências
¹ Organização para a Cooperação e o Desenvolvimento Econômico. "Processo de IA do G7 em Hiroshima: Código de Conduta Internacional para Organizações que Desenvolvem Sistemas Avançados de IA." OCDE. 2023.
² Organização para a Cooperação e o Desenvolvimento Econômico. "HAIP: Estrutura de Relatórios do Processo de IA de Hiroshima." OCDE. 2024.
³ G7 Itália. "Declaração Ministerial sobre o Processo de IA de Hiroshima e os Resultados do Diálogo de Trento." Presidência italiana do G7. 2024.
⁴ Observatório de Políticas de IA da OCDE. "Estrutura da OCDE para a Classificação de Sistemas de IA." OCDE. 2022.
⁵ Observatório de Políticas de IA da OCDE. "Princípios de IA da OCDE: Recomendação do Conselho sobre Inteligência Artificial." OCDE. 2019.
⁶ Organização para a Cooperação e o Desenvolvimento Econômico. "Resumo da Fase Piloto da Estrutura de Relatórios HAIP." OCDE. 2025.