top of page
  • LinkedIn
  • Instagram
  • Instagram
  • TikTok
Agentes Autônomos de IA.png

POLÍTICA DE GOVERNANÇA, ÉTICA E SEGURANÇA EM INTELIGÊNCIA ARTIFICIAL

Esta política estabelece os princípios, responsabilidades e controles adotados pela BAG-AI para garantir o desenvolvimento, implementação e operação de agentes autônomos de Inteligência Artificial (IA) de forma ética, segura, responsável e em conformidade com a legislação vigente e as melhores práticas internacionais.

POLÍTICA DE GOVERNANÇA, ÉTICA E SEGURANÇA EM INTELIGÊNCIA ARTIFICIAL

BAG-AI – Bachmann Advisory Group Artificial Intelligence

1. Objetivo

Esta política estabelece os princípios, responsabilidades e controles adotados pela BAG-AI para garantir o desenvolvimento, implementação e operação de agentes autônomos de Inteligência Artificial (IA) de forma ética, segura, responsável e em conformidade com a legislação vigente e as melhores práticas internacionais.

A BAG-AI atua na construção de arquiteturas personalizadas de IA, integrando modelos fundacionais (LLMs) previamente avaliados, com fluxos seguros, supervisionados e auditáveis, para atender a finalidades como atendimento, análise, automação e suporte a GRC, ESG e processos corporativos.

2. Escopo

Esta política aplica-se a todos os projetos, produtos, agentes e processos que envolvam o uso de Inteligência Artificial no âmbito da BAG-AI, abrangendo:

  • Arquitetura e operação de agentes autônomos multimodais;

  • Implementação de plataformas de atendimento e automação via IA;

  • Integração com modelos fundacionais (LLMs) de terceiros;

  • Tratamento de dados pessoais ou sensíveis em interações com IA;

  • Equipes técnicas, parceiros, fornecedores e clientes que utilizem ou operem os sistemas da BAG-AI.

3. Princípios Éticos

A BAG-AI compromete-se a seguir os seguintes princípios:

  • Transparência: agentes informam claramente que são IA e os usuários têm ciência da interação automatizada.

  • Justiça e não discriminação: mitigação de vieses por meio de curadoria de prompts, simulação de fluxos e validações periódicas.

  • Responsabilidade: supervisão humana em contextos críticos. A BAG-AI não adota decisões automatizadas com efeitos legais ou reputacionais sem revisão humana.

  • Segurança e robustez: testes contínuos de performance, contenção de alucinações e verificação de segurança dos fluxos.

  • Privacidade e minimização: coleta mínima de dados e anonimização sempre que possível.

  • Explicabilidade: fluxos estruturados permitem rastreabilidade e revisão de respostas em auditorias.

4. Papel da BAG-AI na Cadeia de IA

A BAG-AI não desenvolve modelos fundacionais (LLMs). Adotamos soluções fornecidas por terceiros, previamente avaliadas por critérios técnicos, éticos e regulatórios, incluindo:

  • Termos de uso, segurança e privacidade da provedora da LLM;

  • Verificação de políticas de uso responsável, bias e segurança;

  • Local de processamento e políticas de retenção.

A BAG-AI atua na construção dos fluxos, governança e controle lógico dos agentes autônomos, garantindo que operem dentro dos padrões éticos e legais exigidos por nossos clientes e pela legislação brasileira e internacional.

5. Avaliação e Gerenciamento de Riscos
  • Realizamos Avaliação de Risco e Impacto em IA (AIR/AI DPIA) antes da implantação de agentes em ambientes reais;

  • Avaliamos o risco de uso indevido, alucinações, distorções e discriminações algorítmicas;

  • Mantemos logs e registros de interações, respeitando a LGPD e com medidas de segurança;

  • Testes de carga e segurança lógica são aplicados em cada agente antes da liberação para operação.

6. Governança Técnica
  • Fluxos dos agentes são versionados e auditáveis;

  • Utilizamos ambientes segregados para desenvolvimento, homologação e produção;

  • Acesso aos sistemas de IA é controlado por políticas de autenticação forte (MFA) e princípios de menor privilégio;

  • Realizamos auditorias regulares nos fluxos de resposta, nas integrações e nas políticas de conteúdo embutidas nos prompts.

7. Supervisão Humana

A BAG-AI garante que todo agente opere com:

  • Fluxos de escalonamento para humanos em casos de impasse, conflito ou exceção;

  • Desvios críticos ou incidentes éticos são encaminhados para revisão imediata;

  • Clientes têm autonomia para definir níveis de intervenção, restrição de uso e gatilhos de redirecionamento.

8. Conformidade com Leis e Normas

Esta política está em conformidade com:

  • Lei Geral de Proteção de Dados (LGPD – Brasil)

  • Marco Civil da Internet

  • Princípios da OCDE para IA

  • UNESCO Recommendation on the Ethics of Artificial Intelligence

  • ISO/IEC 42001: AI Management Systems (em fase de incorporação)

  • NIST AI RMF (Risk Management Framework)

9. Atualizações e Responsabilidade

Esta política será revisada periodicamente pelo Comitê de Ética e IA da BAG-AI ou sempre que:

  • Houver mudança significativa na tecnologia adotada;

  • Novas regulamentações sejam publicadas;

  • Ocorra algum incidente que justifique revisão dos controles.

Todos os envolvidos em projetos de IA da BAG-AI devem cumprir integralmente esta política e colaborar para sua melhoria contínua.

São Paulo, 19 de abril de 2025.

Add your own content here. Click to edit.

bottom of page