Machine learning na AWS: 7 armadilhas para evitar em 2026
Descubra erros comuns em projetos de machine learning na AWS e aprenda a garantir modelos precisos e seguros em 2026.
Machine learning na AWS: 7 armadilhas para evitar em 2026 Read More »
Conteúdos sobre como usar inteligência artificial na AWS
Descubra erros comuns em projetos de machine learning na AWS e aprenda a garantir modelos precisos e seguros em 2026.
Machine learning na AWS: 7 armadilhas para evitar em 2026 Read More »
A inteligência artificial (IA) generativa e ferramenta de assistente de código estão revolucionando a forma como desenvolvemos software. Em poucos anos, essas tecnologias passaram de conceitos experimentais para ferramentas essenciais no dia a dia de desenvolvedores. Com a popularização dos LLMs (Large Language Models), ficou possível gerar código, responder dúvidas e acelerar processos, tornando o desenvolvimento de software mais ágil e produtivo. O impacto dos assistentes de código como GitHub Copilot Ferramentas como o GitHub Copilot mudaram completamente a forma como escrevemos código. Hoje, temos chats que: Respondem dúvidas técnicas Sugerem melhorias e novas ideias Autocompletam funções e blocos inteiros de código O resultado é mais produtividade, menos erros e maior qualidade no software entregue. O problema? O preço. Para muitos desenvolvedores no Brasil, o custo do Copilot (em dólar) pode ser proibitivo. Alternativa ao GitHub Copilot: Criando seu Code Assistant A boa notícia é que você pode ter o seu próprio assistente de código a custo baixo — ou até 100% grátis. Como? Usando AWS Bedrock em conjunto com o plugin Continue, que integra diferentes provedores de LLMs diretamente no VS Code ou JetBrains (IntelliJ, PyCharm etc). Setup AWS e Bedrock Configure o AWS CLI com o comando: aws configure Acesse a documentação oficial da AWS para detalhes adicionais Habilitando modelos no AWS Bedrock Acesse o serviço Bedrock no Console AWS Clique em Model Access (canto inferior esquerdo) Em Modify model access, selecione os modelos desejados Clique em Submit Importante: habilitar modelos não gera custo até que você os utilize. Continue: O Plugin Code Assistant para o VS Code O Continue permite integrar múltiplos modelos LLM, como OpenAI, AWS Bedrock e Ollama. Ele oferece: Auto complete de código (BETA): sugere trechos automaticamente Chat inteligente: similar ao Copilot, com histórico e contexto Multi-provider: escolha entre rodar na nuvem ou 100% local com Ollama Customização com atalhos: exemplo: @terminal, @codebase, @url Indexação de código: entenda e consulte diretamente sua base de código Integração total com IDEs (VS Code e JetBrains) Instalação do Continue no VS Code Vá até a aba de extensões no VS Code; Pesquise por Continue; Instale e configure via config.json. Exemplo de configuração com AWS Bedrock + Ollama: Exemplo prático: Gerando código com IA Prompt usado: “Gere um código em Python que faça uma requisição HTTP e retorne ‘site ok’ quando status 200, caso contrário mostre a mensagem de erro.” Resultado: código gerado em segundos, funcionando com requests. Conclusão O Continue + AWS Bedrock é uma alternativa poderosa ao GitHub Copilot.Você pode: Usar modelos locais com Ollama (sem custo); Integrar modelos maiores da AWS (como Llama3-70B) quando precisar de mais performance; Criar um assistente de código personalizado, ajustado ao seu contexto. Se você busca um Code Assistant gratuito ou mais barato, essa é a melhor estratégia em 2025. Se quiser ler mais posts como esse, acesse aqui.
Como criar um assistente de código com o Amazon Bedrock Read More »