Quais métricas de observabilidade acompanhar na AWS
Descubra as principais métricas de CloudWatch, Logs, Traces e eventos para monitorar e garantir a saúde da sua AWS.
Quais métricas de observabilidade acompanhar na AWS Read More »
Descubra as principais métricas de CloudWatch, Logs, Traces e eventos para monitorar e garantir a saúde da sua AWS.
Quais métricas de observabilidade acompanhar na AWS Read More »
Descubra oito exemplos práticos de Lambda para automatizar tarefas na AWS, com foco em infraestrutura, segurança e custo.
Automatize rotinas com Lambda: oito casos práticos na AWS Read More »
Entenda como configurar permissões IAM seguras na AWS para proteger seus recursos sem complicação e riscos desnecessários.
Guia simples de IAM: permissões seguras e sem complicação Read More »
Descubra erros comuns em projetos de machine learning na AWS e aprenda a garantir modelos precisos e seguros em 2026.
Machine learning na AWS: 7 armadilhas para evitar em 2026 Read More »
Descubra os 5 sinais essenciais no monitoramento AWS para garantir performance, segurança e resposta rápida a incidentes.
Monitoramento avançado na AWS: 5 sinais que você não pode ignorar Read More »
Aprenda técnicas de FinOps para monitorar, controlar e reduzir custos da AWS com automação e governança em 2026.
Finops para iniciantes: como controlar gastos na AWS em 2026 Read More »
Aprenda a configurar backups automáticos na AWS com criptografia, versionamento e políticas de retenção segura.
Como configurar backups automáticos e seguros na Aws Read More »
Compare os benefícios e desafios da Infraestrutura como Código e deploy manual para melhorar sua gestão AWS com segurança.
Infraestrutura como código versus deploy manual: prós e contras Read More »
Descubra os erros comuns em governança, automação e FinOps que bloqueiam a real redução de custos na AWS.
Sete erros que impedem a redução de custos em projetos cloud Read More »
A inteligência artificial (IA) generativa e ferramenta de assistente de código estão revolucionando a forma como desenvolvemos software. Em poucos anos, essas tecnologias passaram de conceitos experimentais para ferramentas essenciais no dia a dia de desenvolvedores. Com a popularização dos LLMs (Large Language Models), ficou possível gerar código, responder dúvidas e acelerar processos, tornando o desenvolvimento de software mais ágil e produtivo. O impacto dos assistentes de código como GitHub Copilot Ferramentas como o GitHub Copilot mudaram completamente a forma como escrevemos código. Hoje, temos chats que: Respondem dúvidas técnicas Sugerem melhorias e novas ideias Autocompletam funções e blocos inteiros de código O resultado é mais produtividade, menos erros e maior qualidade no software entregue. O problema? O preço. Para muitos desenvolvedores no Brasil, o custo do Copilot (em dólar) pode ser proibitivo. Alternativa ao GitHub Copilot: Criando seu Code Assistant A boa notícia é que você pode ter o seu próprio assistente de código a custo baixo — ou até 100% grátis. Como? Usando AWS Bedrock em conjunto com o plugin Continue, que integra diferentes provedores de LLMs diretamente no VS Code ou JetBrains (IntelliJ, PyCharm etc). Setup AWS e Bedrock Configure o AWS CLI com o comando: aws configure Acesse a documentação oficial da AWS para detalhes adicionais Habilitando modelos no AWS Bedrock Acesse o serviço Bedrock no Console AWS Clique em Model Access (canto inferior esquerdo) Em Modify model access, selecione os modelos desejados Clique em Submit Importante: habilitar modelos não gera custo até que você os utilize. Continue: O Plugin Code Assistant para o VS Code O Continue permite integrar múltiplos modelos LLM, como OpenAI, AWS Bedrock e Ollama. Ele oferece: Auto complete de código (BETA): sugere trechos automaticamente Chat inteligente: similar ao Copilot, com histórico e contexto Multi-provider: escolha entre rodar na nuvem ou 100% local com Ollama Customização com atalhos: exemplo: @terminal, @codebase, @url Indexação de código: entenda e consulte diretamente sua base de código Integração total com IDEs (VS Code e JetBrains) Instalação do Continue no VS Code Vá até a aba de extensões no VS Code; Pesquise por Continue; Instale e configure via config.json. Exemplo de configuração com AWS Bedrock + Ollama: Exemplo prático: Gerando código com IA Prompt usado: “Gere um código em Python que faça uma requisição HTTP e retorne ‘site ok’ quando status 200, caso contrário mostre a mensagem de erro.” Resultado: código gerado em segundos, funcionando com requests. Conclusão O Continue + AWS Bedrock é uma alternativa poderosa ao GitHub Copilot.Você pode: Usar modelos locais com Ollama (sem custo); Integrar modelos maiores da AWS (como Llama3-70B) quando precisar de mais performance; Criar um assistente de código personalizado, ajustado ao seu contexto. Se você busca um Code Assistant gratuito ou mais barato, essa é a melhor estratégia em 2025. Se quiser ler mais posts como esse, acesse aqui.
Como criar um assistente de código com o Amazon Bedrock Read More »