O documento explica como configurar um assistente de codificação local e gratuito no Visual Studio Code usando o Ollama Codellama e a extensão Cody. Os passos incluem a instalação do Visual Studio Code, download do Ollama, instalação da extensão Cody e configuração do ambiente. Após a configuração, o usuário pode interagir com o assistente de codificação através do chat do Cody no VS Code.
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0 notas0% acharam este documento útil (0 voto)
36 visualizações23 páginas
Ollama Copilot Ai Offline
O documento explica como configurar um assistente de codificação local e gratuito no Visual Studio Code usando o Ollama Codellama e a extensão Cody. Os passos incluem a instalação do Visual Studio Code, download do Ollama, instalação da extensão Cody e configuração do ambiente. Após a configuração, o usuário pode interagir com o assistente de codificação através do chat do Cody no VS Code.
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 23
Sabia que é possível configurar um Copilot
local e gratuito no VSCode? Eu explico tudo
neste post. Descubra como configurar um assistente de codificação local com o Ollama Codellama e a extensão Cody no Visual Studio Code. Eu vou te mostrar como fazer! Passo 1: Tenha o Visual Studio Code instalado. Passo 2: Baixe o Ollama clicando aqui. Passo 3: Instale a extensão Cody no Visual Studio Code aqui.
Agora que você fez isso, baixe o model
stablelm-zephyr abaixo. Lembre-se de que existem vários models disponíveis para você testar. Vou deixar um como exemplo: Agora, utilize o comando ollama pull stablelm-zephyr para instalar o modelo Abra o Visual Studio Code. Vá para a seção de extensões clicando no ícone de quadrado que possui quatro quadrados coloridos no canto esquerdo da barra lateral ou pressione Ctrl+Shift+X. No campo de pesquisa, digite "Cody" e pressione Enter. Localize a extensão "Cody AI" na lista de resultados e clique em "Install" (Instalar). Abra seu Terminal. No terminal, digite o comando ollama serve e pressione Enter. Isso iniciará o servidor local do Ollama, necessário para usar o Copilot localmente. Certifique-se de que o ambiente esteja configurado corretamente para executar este comando. Pressione Ctrl+, (ou Cmd+, no macOS) para abrir as configurações do VS Code. No campo de busca das configurações, digite "Cody" para filtrar as configurações da extensão Cody. Selecione "Extensions > Cody AI" na lista de resultados para acessar as configurações específicas da extensão Cody. Isso permitirá que você ajuste e configure as opções da extensão Cody de acordo com suas preferências e necessidades. Certifique-se de que as configurações específicas da extensão Cody estão presentes no seu settings.json. Elas devem aparecer após ter configurado as preferências da extensão. Por exemplo: No Visual Studio Code, pressione Ctrl+Shift+P (ou Cmd+Shift+P no macOS) para abrir a barra de comandos. Digite "Reload Window" (Recarregar Janela) e selecione essa opção para recarregar o VS Code. Abra um arquivo na sua linguagem de programação preferida. Pressione Alt+L para abrir o chat do Cody na barra lateral do VS Code. Por favor, clique na área destacada na imagem e role até encontrar o texto 'ollama local'. E selecione o model que acabamos de instalar. Fazendo a primeira interação com o chat do Cody utilizando o Ollama local. Agora utilizando o Copilot.