0% acharam este documento útil (0 voto)
36 visualizações23 páginas

Ollama Copilot Ai Offline

O documento explica como configurar um assistente de codificação local e gratuito no Visual Studio Code usando o Ollama Codellama e a extensão Cody. Os passos incluem a instalação do Visual Studio Code, download do Ollama, instalação da extensão Cody e configuração do ambiente. Após a configuração, o usuário pode interagir com o assistente de codificação através do chat do Cody no VS Code.

Enviado por

Daniel Mai
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
0% acharam este documento útil (0 voto)
36 visualizações23 páginas

Ollama Copilot Ai Offline

O documento explica como configurar um assistente de codificação local e gratuito no Visual Studio Code usando o Ollama Codellama e a extensão Cody. Os passos incluem a instalação do Visual Studio Code, download do Ollama, instalação da extensão Cody e configuração do ambiente. Após a configuração, o usuário pode interagir com o assistente de codificação através do chat do Cody no VS Code.

Enviado por

Daniel Mai
Direitos autorais
© © All Rights Reserved
Levamos muito a sério os direitos de conteúdo. Se você suspeita que este conteúdo é seu, reivindique-o aqui.
Formatos disponíveis
Baixe no formato PDF, TXT ou leia on-line no Scribd
Você está na página 1/ 23

Sabia que é possível configurar um Copilot

local e gratuito no VSCode? Eu explico tudo


neste post.
Descubra como configurar um assistente de
codificação local com o Ollama Codellama e
a extensão Cody no Visual Studio Code. Eu
vou te mostrar como fazer!
Passo 1: Tenha o Visual Studio Code instalado.
Passo 2: Baixe o Ollama clicando aqui.
Passo 3: Instale a extensão Cody no Visual
Studio Code aqui.

Agora que você fez isso, baixe o model


stablelm-zephyr
abaixo. Lembre-se de que existem vários
models disponíveis para você testar.
Vou deixar um como exemplo:
Agora, utilize o comando ollama pull stablelm-zephyr
para instalar o modelo
Abra o Visual Studio Code. Vá para a seção
de extensões clicando no ícone de quadrado
que possui quatro quadrados coloridos no
canto esquerdo da barra lateral ou pressione
Ctrl+Shift+X. No campo de pesquisa, digite
"Cody" e pressione Enter. Localize a
extensão "Cody AI" na lista de resultados e
clique em "Install" (Instalar).
Abra seu Terminal.
No terminal, digite o comando ollama
serve e pressione Enter.
Isso iniciará o servidor local do Ollama,
necessário para usar o Copilot
localmente. Certifique-se de que o
ambiente esteja configurado
corretamente para executar este
comando.
Pressione Ctrl+, (ou Cmd+, no macOS) para
abrir as configurações do VS Code.
No campo de busca das configurações, digite
"Cody" para filtrar as configurações da
extensão Cody.
Selecione "Extensions > Cody AI" na lista de
resultados para acessar as configurações
específicas da extensão Cody.
Isso permitirá que você ajuste e configure as
opções da extensão Cody de acordo com suas
preferências e necessidades.
Certifique-se de que as configurações específicas
da extensão Cody estão presentes no seu
settings.json. Elas devem aparecer após ter
configurado as preferências da extensão. Por
exemplo:
No Visual Studio Code, pressione Ctrl+Shift+P
(ou Cmd+Shift+P no macOS) para abrir a barra
de comandos.
Digite "Reload Window" (Recarregar Janela) e
selecione essa opção para recarregar o VS
Code.
Abra um arquivo na sua linguagem de
programação preferida.
Pressione Alt+L para abrir o chat do Cody na
barra lateral do VS Code.
Por favor, clique na área destacada na imagem e
role até encontrar o texto 'ollama local'.
E selecione o model que acabamos de instalar.
Fazendo a primeira interação com o chat do
Cody utilizando o Ollama local.
Agora utilizando o Copilot.

Você também pode gostar