A inteligência artificial (IA) generativa e ferramenta de assistente de código estão revolucionando a forma como desenvolvemos software. Em poucos anos, essas tecnologias passaram de conceitos experimentais para ferramentas essenciais no dia a dia de desenvolvedores. Com a popularização dos LLMs (Large Language Models), ficou possível gerar código, responder dúvidas e acelerar processos, tornando o desenvolvimento de software mais ágil e produtivo.
Tabela de conteúdos
Toggle
O impacto dos assistentes de código como GitHub Copilot
Ferramentas como o GitHub Copilot mudaram completamente a forma como escrevemos código. Hoje, temos chats que:
-
Respondem dúvidas técnicas
-
Sugerem melhorias e novas ideias
-
Autocompletam funções e blocos inteiros de código
O resultado é mais produtividade, menos erros e maior qualidade no software entregue. O problema? O preço. Para muitos desenvolvedores no Brasil, o custo do Copilot (em dólar) pode ser proibitivo.
Alternativa ao GitHub Copilot: Criando seu Code Assistant
A boa notícia é que você pode ter o seu próprio assistente de código a custo baixo — ou até 100% grátis. Como? Usando AWS Bedrock em conjunto com o plugin Continue, que integra diferentes provedores de LLMs diretamente no VS Code ou JetBrains (IntelliJ, PyCharm etc).
Setup AWS e Bedrock
-
Configure o AWS CLI com o comando: aws configure
Acesse a documentação oficial da AWS para detalhes adicionais
Habilitando modelos no AWS Bedrock
-
Acesse o serviço Bedrock no Console AWS
-
Clique em Model Access (canto inferior esquerdo)
-
Em Modify model access, selecione os modelos desejados
-
Clique em Submit
Continue: O Plugin Code Assistant para o VS Code
O Continue permite integrar múltiplos modelos LLM, como OpenAI, AWS Bedrock e Ollama.
Ele oferece:
-
Auto complete de código (BETA): sugere trechos automaticamente
-
Chat inteligente: similar ao Copilot, com histórico e contexto
-
Multi-provider: escolha entre rodar na nuvem ou 100% local com Ollama
-
Customização com atalhos: exemplo:
@terminal,@codebase,@url -
Indexação de código: entenda e consulte diretamente sua base de código
-
Integração total com IDEs (VS Code e JetBrains)
Instalação do Continue no VS Code
-
Vá até a aba de extensões no VS Code;
-
Pesquise por Continue;
-
Instale e configure via
config.json.
Exemplo de configuração com AWS Bedrock + Ollama:
Exemplo prático: Gerando código com IA
Prompt usado:
“Gere um código em Python que faça uma requisição HTTP e retorne ‘site ok’ quando status 200, caso contrário mostre a mensagem de erro.”
Resultado: código gerado em segundos, funcionando com requests.
Conclusão
O Continue + AWS Bedrock é uma alternativa poderosa ao GitHub Copilot.
Você pode:
-
Usar modelos locais com Ollama (sem custo);
-
Integrar modelos maiores da AWS (como Llama3-70B) quando precisar de mais performance;
-
Criar um assistente de código personalizado, ajustado ao seu contexto.
Se você busca um Code Assistant gratuito ou mais barato, essa é a melhor estratégia em 2025. Se quiser ler mais posts como esse, acesse aqui.

Pingback: Machine learning na AWS: 7 armadilhas para evitar em 2026 - Site - AprendaAWS
Pingback: Automatize rotinas com Lambda: oito casos práticos na AWS - Site - AprendaAWS