GitLab AI Transparency Center
Descubra como o GitLab implementa governança e transparência para ajudar as equipes e seus agentes de IA a proteger ativos valiosos com IA de ponta.

Valores fundamentais
Valores fundamentais
O GitLab valoriza a confiança que os clientes depositam em nós e trata essa responsabilidade com a máxima seriedade. Em sintonia com o nosso valor central de transparência, adotamos uma abordagem que prioriza a transparência e a privacidade para proteger os dados e a propriedade intelectual dos nossos clientes.
Princípios éticos em IA
Princípios éticos em IA
A ética desempenha um papel fundamental na criação de recursos de IA. Pensando nisso, o GitLab publicou os Princípios de Ética em IA para o Desenvolvimento de Produtos, que nos orientaram à medida que criamos e evoluímos funcionalidades e recursos de IA.
Trabalhamos de modo contínuo para desenvolver e aprimorar nossos recursos de IA. Por isso, esses princípios podem evoluir naturalmente com o tempo. Continuaremos revisando esses princípios e fazendo os ajustes necessários para incorporar as melhores práticas no desenvolvimento responsável de IA.
Plano de Continuidade de IA
Plano de Continuidade de IA
Hoje, os recursos de IA do GitLab usam a tecnologia de um conjunto diversificado de modelos, o que nos permite atender a vários casos de uso e oferecer flexibilidade aos nossos clientes. Ao contrário de outras plataformas de DevOps, o GitLab não está vinculado a um único provedor de modelo por padrão.
O Plano de Continuidade de IA do GitLab apresenta de forma transparente nosso processo de seleção de novos fornecedores de IA e descreve como pretendemos lidar com eventuais mudanças significativas nas práticas de uso de dados dos clientes por parte dos nossos fornecedores.
Diretrizes para seleção de fornecedores de modelos
Diretrizes para seleção de fornecedores de modelos
O GitLab se compromete a trabalhar com fornecedores de modelos de IA que compartilhem nossos valores de privacidade, segurança e transparência. Nossas Diretrizes para Seleção de Fornecedores de Modelos descrevem a estrutura que usamos para avaliar e escolher os fornecedores que desenvolvem e hospedam os modelos do GitLab Duo, abrangendo requisitos essenciais de privacidade de dados, ética, alocação de riscos, segurança, desempenho e sustentabilidade.
Documentação de IA
Documentação de IA
A documentação do GitLab Duo descreve claramente:
- Cada um dos nossos recursos de IA e suas finalidades pretendidas
- Quais modelos alimentam cada um dos nossos recursos de IA
- Como usamos seu código e outros dados
- Períodos de retenção atuais dos nossos fornecedores de modelos de IA
- O status atual (experiment/beta/GA) de cada recurso de IA
- Os planos e as ofertas do GitLab que incluem acesso a cada recurso de IA
Recursos
GitLab Trust Center
Nossa missão é ser a referência em segurança, inovação e transparência.
Aviso de Privacidade do GitLab
Entenda como o GitLab trata seus dados pessoais.
Perguntas
frequentes
Perguntas
frequentes
Cada LLM tem seus pontos fortes. Por isso, configurar sua arquitetura de IA com diversos modelos para casos de uso específicos pode ser uma estratégia eficaz. No entanto, é essencial garantir que os provedores de DevOps sejam transparentes quanto aos LLMs utilizados em recursos de IA e ao local específico onde esses modelos estão hospedados.
Os recursos do GitLab Duo não dependem de um único modelo. Desenvolvemos o GitLab Duo com a flexibilidade para usar o modelo que oferece o resultado mais adequado para cada caso de uso. Para manter o nosso compromisso com a transparência, identificamos os modelos utilizados nos recursos do GitLab Duo na nossa documentação pública.
O GitLab Duo é alimentado por modelos de terceiros hospedados em nuvem. Os fornecedores desses modelos e os respectivos termos de serviço foram escolhidos para apoiar o compromisso do GitLab com a privacidade e a proteção da propriedade intelectual dos clientes.
Listamos todos os nossos subprocessadores na página de subprocessadores. Os clientes podem se inscrever para receber notificações sempre que houver atualizações.
No momento, o GitLab não treina seus próprios modelos. Nenhuma entrada ou saída dos recursos do GitLab Duo é usada para treinar modelos do GitLab. Os fornecedores de IA do GitLab cumprem acordos de proteção de dados que proíbem o uso de prompts ou resultados associados ao ID do cliente do GitLab para fins próprios, salvo para atender a obrigações legais independentes.
Com o GitLab Duo, o conteúdo inserido por você continua sendo seu. O GitLab não reivindica propriedade sobre os seus dados. Consulte nossos Termos de Funcionalidade de IA para obter mais detalhes.
Embora o cenário jurídico e regulatório relacionado aos resultados gerados por IA esteja em desenvolvimento, a posição do GitLab é clara: não reivindicamos a propriedade de nenhum resultado gerado pelo GitLab Duo. O uso desses resultados fica a seu critério. Consulte nossos Termos de Funcionalidade de IA para obter mais detalhes.
O GitLab indenizará os clientes do GitLab Duo e protegerá seu direito de usar os resultados gerados pelo GitLab Duo. Isso inclui o pagamento de custos de defesa decorrentes de alegações de que os resultados gerados pelo GitLab Duo infringem os direitos de propriedade intelectual de terceiros. Da mesma forma, o GitLab também cobrirá os valores de sentenças finais desfavoráveis ou de acordos homologados relacionados a essas alegações. O GitLab protege o direito desses clientes de usar os resultados gerados pelo GitLab Duo, desde que eles:
- não tenham modificado os resultados;
- tenham o direito válido de usar suas entradas;
- tenham pagado pelo(s) recurso(s) de IA;
- não estejam usando modelos auto-hospedados; e
- não tenham conhecimento de que tais resultados estão infringindo a lei antes de usá-los ou de depender deles.
Essa indenização se estende aos resultados gerados pelos agentes desenvolvidos pelo GitLab na Plataforma de Agentes GitLab Duo. Os clientes não precisam habilitar nem ativar nenhum filtro para receber essa proteção. Consulte nossos Termos de Funcionalidade de IA para obter mais detalhes.
O GitLab continuará a manter seu Objetivo de Nível de Serviço (SLO) e a monitorar o GitLab.com para relatar mensalmente a Disponibilidade de Nível de Serviço (SLA) real.
O GitLab publicou os Princípios de Ética em IA para o Desenvolvimento de Produtos para nos orientar na criação e iteração dos nossos recursos de IA.
O GitLab não divulga as taxas de aceitação do GitLab Duo porque medir a eficácia com recursos de IA não é um cálculo simples.
A métrica que nos interessa avaliar é como o uso do GitLab Duo pode contribuir para os objetivos de negócios do cliente. Um exemplo a considerar: como o GitLab Duo, como parte do seu fluxo de trabalho do GitLab, ajudaria seus desenvolvedores a concluir solicitações de recursos mais rapidamente?
Para saber mais sobre nossa abordagem, consulte esta postagem no blog.
No momento, o GitLab não desenvolve nem treina os próprios modelos de IA. Consulte acima nossa documentação sobre IA, nossos princípios de ética em IA e outros recursos. Os recursos atuais de IA do GitLab não se qualificam como sistemas de IA de alto risco nos termos do Ato de Inteligência Artificial da UE e atendem aos requisitos do Ato na medida em que constituem sistemas de risco limitado. O GitLab oferece uma série de garantias com relação à conformidade dos nossos produtos com a lei aplicável, como a Aviso de Privacidade do GitLab, o Contrato de Assinatura, os Termos de Funcionalidade de IA e o Contrato de Teste (que se aplica aos recursos experimentais e beta de IA do GitLab). Todos os termos estão disponíveis aqui.
A Plataforma de Agente do GitLab Duo foi projetada para auxiliar e acelerar os fluxos de trabalho de desenvolvimento, apoiando a intervenção humana em todo o ciclo de vida do desenvolvimento de software. Os clientes mantêm o controle sobre seus processos de implantação e estruturas de governança. Incentivamos os clientes a estabelecer um nível de intervenção humana adequada na criação de fluxos de trabalho e nos processos de revisão em pontos críticos de decisão, incluindo revisão de código, testes, validação e aprovação de implantação.
Comece a desenvolver mais rápido hoje
Comece a desenvolver mais rápido hoje
Veja o que sua equipe pode fazer com a plataforma de orquestração inteligente para DevSecOps.