Skip to content

Neste workshop em português, aprenda como evitar que problemas de segurança comuns sejam incorporados ao seu código, como encontrar e corrigir vulnerabilidades mais rapidamente com IA e como manter suas dependências atualizadas usando o GitHub Advanced Security.

License

Notifications You must be signed in to change notification settings

paulanunes85/Github-Advanced-Security-Workflow-pt-br

 
 

Repository files navigation

GitHub Advanced Security: Protegendo seu Workflow

Revisão para Português Brasil @paulanunes85 - 2025

Se você for ministrar esta sessão, consulte a página de recursos de entrega de sessão para slides, scripts de demonstração e outros recursos.

Descrição da Sessão

Os recursos do GitHub Advanced Security são integrados diretamente ao fluxo de trabalho de desenvolvimento, tornando-os fáceis de usar e dando aos desenvolvedores a capacidade de identificar possíveis problemas de segurança o mais cedo possível no ciclo de vida do desenvolvimento de software.

Aprenda como evitar que problemas de segurança comuns sejam mesclados ao seu código, como encontrar e corrigir vulnerabilidades mais rapidamente com IA e como manter suas dependências atualizadas via GitHub Advanced Security.

Resultados de Aprendizagem

  • Aprenda como habilitar alertas do Dependabot e receber notificações sobre dependências vulneráveis, incluindo um link para o arquivo afetado no projeto e informações sobre uma versão corrigida.
  • Veja como atualizar automaticamente ou gerar uma solicitação de pull para atualizar dependências vulneráveis.
  • Descubra como atualizar automaticamente pacotes suportados usados pelo seu repositório em uma programação que você configura.
  • Aprenda como habilitar a varredura de segredos e a proteção de push que previne proativamente vazamentos de segredos ao escanear o código no commit e bloquear um push se um segredo estiver presente.
  • Encontre vulnerabilidades antes que elas sejam mescladas ao código com varreduras automatizadas do CodeQL.
  • Aprenda como obter correções de código sugeridas por IA em solicitações de pull.

Tecnologia Utilizada

    - GitHub Advanced Security
    - Dependabot
    - Varredura de Segredos
    - CodeQL
    - Copilot Autofix
    - GitHub Actions

Pré-requisitos

Antes de participar do workshop, há somente um pré-requisito: ter uma conta pública do GitHub. Todos os recursos, dependências e dados já fazem parte do repositório.

  • Pré-requisitos: Para usar o GitHub Copilot, você deve ter uma assinatura ativa do GitHub Copilot Business ou Enterprise. Inscreva-se para Copilot Free para VS Code apenas para fim de treinamento Copilot for free para VS Code.
  • Já possuir acesso ou Habilitar GitHub Advanced Security: Habilitando a segurança avançada do GitHub
  • Ter acesso a uma organização GitHub com licença do GitHub Advanced Security

Recursos Adicionais e Aprendizado Contínuo

Recursos Links Descrição
Documentação Documentação Sobre GitHub Advanced Security
Documentação Documentação de atualizações de segurança do Dependabot Sobre atualizações de segurança do Dependabot
Documentação Documentação do Copilot Autofix Sobre o Copilot Autofix para varredura de código do CodeQL
Certificação Programa de Certificação do GitHub Advanced Security Saiba mais sobre as Certificações do GitHub

Proprietários do Conteúdo

Chris Testa-O'Neill
Joylynn Kirui

📢

IA Responsável

A Microsoft está comprometida em ajudar nossos clientes a usar nossos produtos de IA de forma responsável, compartilhando nossos aprendizados e construindo parcerias baseadas em confiança por meio de ferramentas como Notas de Transparência e Avaliações de Impacto. Muitos desses recursos podem ser encontrados em https://aka.ms/RAI. A abordagem da Microsoft para IA responsável é baseada em nossos princípios de IA de justiça, confiabilidade e segurança, privacidade e segurança, inclusão, transparência e responsabilidade.

Modelos de linguagem natural, imagem e fala em larga escala - como os usados neste exemplo - podem potencialmente se comportar de maneiras injustas, não confiáveis ou ofensivas, causando danos. Consulte a nota de transparência do serviço Azure OpenAI para se informar sobre riscos e limitações.

A abordagem recomendada para mitigar esses riscos é incluir um sistema de segurança em sua arquitetura que possa detectar e prevenir comportamentos prejudiciais. O Azure AI Content Safety fornece uma camada independente de proteção, capaz de detectar conteúdo prejudicial gerado por usuários e IA em aplicativos e serviços. O Azure AI Content Safety inclui APIs de texto e imagem que permitem detectar material prejudicial. Também temos um Content Safety Studio interativo que permite visualizar, explorar e testar códigos de exemplo para detectar conteúdo prejudicial em diferentes modalidades. A seguinte documentação de início rápido orienta você a fazer solicitações ao serviço.

Outro aspecto a ser considerado é o desempenho geral do aplicativo. Com aplicativos multimodais e multimodelos, consideramos desempenho como o sistema funcionando conforme você e seus usuários esperam, incluindo não gerar saídas prejudiciais. É importante avaliar o desempenho do seu aplicativo geral usando avaliadores de Desempenho e Qualidade e de Risco e Segurança. Você também tem a capacidade de criar e avaliar com avaliadores personalizados.

Você pode avaliar seu aplicativo de IA em seu ambiente de desenvolvimento usando o SDK de Avaliação do Azure AI. Dado um conjunto de dados de teste ou um alvo, as gerações do seu aplicativo de IA generativa são medidas quantitativamente com avaliadores integrados ou avaliadores personalizados de sua escolha. Para começar a usar o SDK de fluxo de prompt para avaliar seu sistema, você pode seguir o guia de início rápido. Depois de executar uma execução de avaliação, você pode visualizar os resultados no Azure AI Studio.

Avisos Legais

A Microsoft e quaisquer colaboradores concedem a você uma licença para a documentação da Microsoft e outros conteúdos neste repositório sob a Creative Commons Attribution 4.0 International Public License, veja LICENSE e concedem a você uma licença para qualquer código no repositório sob a MIT License, consulte LICENSE-CODE

Microsoft, Windows, Microsoft Azure e/ou outros produtos e serviços da Microsoft referenciados na documentação podem ser marcas registradas ou marcas registradas da Microsoft nos Estados Unidos e/ou em outros países. As licenças para este projeto não concedem a você direitos de uso de quaisquer nomes, logotipos ou marcas registradas da Microsoft. As diretrizes gerais de marcas registradas da Microsoft podem ser encontradas em http://go.microsoft.com/fwlink/?LinkID=254653.

As informações de privacidade podem ser encontradas em https://privacy.microsoft.com/en-us/

A Microsoft e quaisquer colaboradores reservam todos os outros direitos, sejam sob seus respectivos direitos autorais, patentes, ou marcas registradas, seja por implicação, estoppel ou de outra forma.

About

Neste workshop em português, aprenda como evitar que problemas de segurança comuns sejam incorporados ao seu código, como encontrar e corrigir vulnerabilidades mais rapidamente com IA e como manter suas dependências atualizadas usando o GitHub Advanced Security.

Resources

License

Code of conduct

Security policy

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • JavaScript 100.0%