Como criar um assistente de código com o Amazon Bedrock

Assistente de Código

A inteligência artificial (IA) generativa e ferramenta de assistente de código estão revolucionando a forma como desenvolvemos software. Em poucos anos, essas tecnologias passaram de conceitos experimentais para ferramentas essenciais no dia a dia de desenvolvedoresCom a popularização dos LLMs (Large Language Models), ficou possível gerar código, responder dúvidas e acelerar processos, tornando o desenvolvimento de software mais ágil e produtivo.

 

O impacto dos assistentes de código como GitHub Copilot

Ferramentas como o GitHub Copilot mudaram completamente a forma como escrevemos código. Hoje, temos chats que:

  • Respondem dúvidas técnicas

  • Sugerem melhorias e novas ideias

  • Autocompletam funções e blocos inteiros de código

O resultado é mais produtividade, menos erros e maior qualidade no software entregue. O problema? O preço. Para muitos desenvolvedores no Brasil, o custo do Copilot (em dólar) pode ser proibitivo.

 

Alternativa ao GitHub Copilot: Criando seu Code Assistant

A boa notícia é que você pode ter o seu próprio assistente de código a custo baixo — ou até 100% grátisComo? Usando AWS Bedrock em conjunto com o plugin Continue, que integra diferentes provedores de LLMs diretamente no VS Code ou JetBrains (IntelliJ, PyCharm etc).


Setup AWS e Bedrock

  1. Configure o AWS CLI com o comando: aws configure

  2. Acesse a documentação oficial da AWS para detalhes adicionais

Habilitando modelos no AWS Bedrock

  • Acesse o serviço Bedrock no Console AWS

  • Clique em Model Access (canto inferior esquerdo)

  • Em Modify model access, selecione os modelos desejados

  • Clique em Submit

 
 Importante: habilitar modelos não gera custo até que você os utilize.
 

Continue: O Plugin Code Assistant para o VS Code

O Continue permite integrar múltiplos modelos LLM, como OpenAI, AWS Bedrock e Ollama.

Ele oferece:

  • Auto complete de código (BETA): sugere trechos automaticamente

  • Chat inteligente: similar ao Copilot, com histórico e contexto

  • Multi-provider: escolha entre rodar na nuvem ou 100% local com Ollama

  • Customização com atalhos: exemplo: @terminal, @codebase, @url

  • Indexação de código: entenda e consulte diretamente sua base de código

  • Integração total com IDEs (VS Code e JetBrains)

Instalação do Continue no VS Code

  1. Vá até a aba de extensões no VS Code;

  2. Pesquise por Continue;

  3. Instale e configure via config.json.

Exemplo de configuração com AWS Bedrock + Ollama:

 

 

Exemplo prático: Gerando código com IA

Prompt usado:

“Gere um código em Python que faça uma requisição HTTP e retorne ‘site ok’ quando status 200, caso contrário mostre a mensagem de erro.”

Resultado: código gerado em segundos, funcionando com requests.

 

Conclusão

O Continue + AWS Bedrock é uma alternativa poderosa ao GitHub Copilot.
Você pode:

  • Usar modelos locais com Ollama (sem custo);

  • Integrar modelos maiores da AWS (como Llama3-70B) quando precisar de mais performance;

  • Criar um assistente de código personalizado, ajustado ao seu contexto.

Se você busca um Code Assistant gratuito ou mais barato, essa é a melhor estratégia em 2025. Se quiser ler mais posts como esse, acesse aqui.

2 comentários em “Como criar um assistente de código com o Amazon Bedrock”

  1. Pingback: Machine learning na AWS: 7 armadilhas para evitar em 2026 - Site - AprendaAWS

  2. Pingback: Automatize rotinas com Lambda: oito casos práticos na AWS - Site - AprendaAWS

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *