Select your language

Live Chat

Lokale AI-codeeromgeving: Continue, Ollama & Devstral / DeepSeek Coder

Lokale AI-codeeromgeving: Continue, Ollama & Devstral / DeepSeek Coder

Auteur: Siu-Ho

May 12, 2025

Wil je een betere coding experience met lokale modellen? Probeer Continue - een code-assistent extensie voor Visual Studio Code. In combinatie met Ollama en geavanceerde modellen zoals Devstral / DeepSeek Coder krijg je codevoorstellen, bewerkingen en chatfunctionaliteit - zonder dat je broncode online wordt verstuurd.

Persoonlijke noot:
Voor wie op zoek is naar een robuust gratis alternatief voor Cursor, gebruik ik zelf een combinatie van Continue, Ollama en Devstral 24B / DeepSeek Coder 33B. Ik vind dat DeepSeek Coder capabeler is en betere resultaten oplevert. Deze setup werkt voor mij uitstekend in mijn dagelijkse ontwikkelwerkzaamheden.

Alles draait lokaal, dus je code blijft privé en veilig - geen afhankelijkheid van de cloud.

Het brengt Cursor-achtige functies naar je bestaande VS Code-installatie.

Of je nu werkt in Python, C++, JavaScript of PHP - deze setup biedt slimme suggesties, codebewerkingen en AI-assistentie via chat, volledig lokaal en offline.


📊 Roo Code vs. Continue – Functieoverzicht

KenmerkRoo CodeContinue
VS Code-extensie✅ Ja✅ Ja
Ondersteuning voor lokale modellen✅ Ja (via Ollama of lokale API’s)✅ Ja (via Ollama)
Ondersteuning voor cloudmodellen✅ Ja (bijv. OpenAI, Anthropic, DeepSeek)✅ Ja (bijv. OpenAI, Anthropic DeepSeek)
Chatinterface✅ Ja✅ Ja
Autocomplete-integratie✅ Ja✅ Ja (nauw geïntegreerd)
Suggesties voor codebewerkingen✅ Ja✅ Ja
Meerdere modellen configureren✅ Ja (aangepaste prompt-modi)✅ Ja (`continue.config.yaml`)
Toegang tot bestandssysteem✅ Ja✅ Ja
Terminalcommando's uitvoeren✅ Ja✅ Ja
Browserautomatisering✅ Ja❌ Nee
Offline gebruik✅ Volledig ondersteund✅ Volledig ondersteund
Open source✅ Ja✅ Ja
Eenvoudige installatie✅ Ja (via VS Code Marketplace)✅ Ja (via VS Code Marketplace)
Aanpasbaarheid✅ Hoog (modi, commando’s, routing)✅ Hoog (YAML-configuratie voor modellen en rollen)
Community-grootte🟡 Gemiddeld (in opbouw)🟢 Groot (volwassen VS Code-ecosysteem)

✅ Roo Code – Voordelen en Nadelen

Voordelen

  • Werkt met zowel lokale als cloudgebaseerde LLM’s.
  • Ondersteunt browserautomatisering en aangepaste AI-commando’s.
  • Zeer aanpasbare modi (zoals Debug, Code, Architect).
  • Terminal- en bestandsinteractie mogelijk.
  • Overzichtelijke interface binnen VS Code met multitabs voor chat.

Nadelen

  • Iets zwaarder qua gebruik dan Continue.
  • Sommige functies (zoals agents) zijn complex voor basistaken.
  • Kleinere community en minder documentatie dan Continue.

✅ Continue – Voordelen en Nadelen

Voordelen

  • Lichtgewicht en strak geïntegreerd in de VS Code-interface.
  • Naadloze ervaring voor autocomplete, chat en codebewerking.
  • Geoptimaliseerd voor gebruik met lokale modellen via continue.config.yaml.
  • Grotere community en goede documentatie.
  • Supersnelle installatie via Marketplace + Ollama.

Nadelen

  • Geen browserautomatisering of multimodale tools.
  • Geen ingebouwde agent-functies voor autonome taken.
  • Voor gevorderde multi-model workflows is handmatige configuratie nodig.

💡 Advies: Gebruik Continue als je op zoek bent naar een snelle, efficiënte AI-assistent voor code, nauw geïntegreerd met VS Code en met uitstekende ondersteuning voor lokale modellen.
Kies Roo Code als je liever een uitgebreide assistent gebruikt die ook browseropdrachten kan uitvoeren, terminaltaken kan aansturen en flexibel inzetbaar is in verschillende workflows.


🛠️ Hoe installeer je Continue in VS Code

1. Installeer de Continue-extensie

  1. Open VS Code.
  2. Ga naar het Extensies-overzicht (Ctrl+Shift+X of Cmd+Shift+X).
  3. Zoek op Continue en installeer de versie van Continue Dev.

Of gebruik de terminal:

code --install-extension Continue.continue

2. Installeer Ollama

Ollama is een lokale model-runner die naadloos samenwerkt met Continue.

🪟 Op Windows

  1. Download de installer via https://ollama.com
  2. Volg de installatie-instructies
  3. Open een terminal en voer uit:
    ollama run llama3

🍎 Op macOS

brew install ollama
ollama run llama3

3. Gebruik "betere" modellen (bijv. Devstral)

Ollama ondersteunt veel krachtige open-source modellen. Om Devstral 24B op te halen en uit te voeren:

ollama pull devstral:24b-small-2505-q4_K_M
ollama pull deepseek-coder:6.7b

Daarna testen:

ollama run devstral:24b-small-2505-q4_K_M

⚠️ Systeemvereisten: Voor het uitvoeren van dit model is een GPU met minimaal 24 GB VRAM aanbevolen, zoals een NVIDIA RTX 3090 of hoger. Gebruik je een modelvariant met minder parameters of kwantisatie, dan kan 16 GB VRAM in sommige gevallen voldoende zijn.

Dit model is bijzonder geschikt voor chat, codebewerkingen en langere prompts dankzij het uitgebreide contextvenster.


⚙️ Optioneel: Geavanceerde configuratie met continue.config.yaml

Voor diepere integratie en ondersteuning voor meerdere modellen kun je een eigen configuratiebestand aanmaken. Hiermee kun je:

  • Specifieke modellen toewijzen aan taken zoals chat, edit of autocomplete
  • Tokenlimieten verhogen voor modellen met lange context
  • Semantisch zoeken en embeddings toevoegen met modellen zoals nomic-embed-text

📄 Voorbeeld continue.config.yaml

Sla dit op in de root van je projectmap of in een .continue/-map:

name: Local Assistant
version: 1.0.0
schema: v1models:
- name: Devstral Small 24B (Q4_K_M)
provider: ollama
model: devstral:24b-small-2505-q4_K_M
maxTokens: 131072 # explicitly set
contextLength: 128000 # if supported by Continue
roles:
- chat
- edit
- apply- name: DeepSeek-Coder 6.7B
provider: ollama
model: deepseek-coder:6.7b
maxTokens: 16384
contextLength: 16384
roles:
- autocomplete- name: Nomic Embed
provider: ollama
model: nomic-embed-text:latest
roles:
- embedcontext:
- provider: code
- provider: docs
- provider: diff
- provider: terminal
- provider: problems
- provider: folder
- provider: codebase

📌 Tip: Na het aanpassen van de configuratie, herstart de Continue-extensie of herlaad VS Code.


🚀 Voordelen van Continue + Ollama

Lokaal-first: Geen cloud nodig
Ondersteuning voor meerdere modellen: Gebruik gespecialiseerde modellen voor specifieke taken
Snel: Geoptimaliseerd voor real-time ontwikkelwerk
Aanpasbaar: YAML-gebaseerde configuratie
Offline: Ideaal voor beveiligde omgevingen


Door Continue te combineren met Ollama en krachtige open-source modellen zoals Devstral, krijg je een AI-codeerervaring van het hoogste niveau - volledig binnen VS Code en op je eigen machine.


🤝 Roo Code en Continue combineren

Hoewel Roo Code en Continue elk hun eigen sterke punten hebben, kun je ze ook samen gebruiken voor een krachtige en flexibele AI-codeeromgeving.

  • Gebruik Continue voor diep geïntegreerde autocomplete, inline bewerkingen en multi-model rollen binnen VS Code.
  • Gebruik Roo Code als aanvulling voor taken zoals browserautomatisering, terminalcommando’s en gestructureerde prompts via aangepaste modi.

Door beide tools parallel te installeren in Visual Studio Code profiteer je van:

  • Het beste van snelle, contextuele code-assistentie (Continue)
  • Geavanceerde AI-agentfunctionaliteit en automatisering (Roo Code)

💡 Let op: zorg ervoor dat je configuratiebestanden (zoals continue.config.yaml en Roo’s instellingen) elkaar niet overschrijven. Beide tools draaien onafhankelijk van elkaar en kunnen naast elkaar functioneren. In sommige gevallen is het noodzakelijk om de toetsencombinaties aan te passen vanwege conflicten.


10 Codeer-Modellen voor Lokaal Gebruik met Ollama (mei 2025)

ModelnaamPrecieze ModelnaamOpmerkingen
DevStral 7Bdevstral:7b
DeepSeek Coder 6.7Bdeepseek-coder:6.7b
DeepSeek Coder 33B Q4deepseek-coder:33b-instruct-q4_K_MPersoonlijke favoriet
CodeLlama 13B Instructcodellama:13b-instruct
CodeLlama 34B Instructcodellama:34b-instructVereist veel VRAM; mogelijk met quantization
Phind-CodeLlama-34B-v2phind-codellama:34b-v2
WizardCoder 34Bwizardcoder:34bAanbevolen met Q4 of Q5 quantization
Mixtral 8x7B Instructmixtral:8x7b-instruct
StarCoder 15Bstarcoder:15bHandmatige installatie vereist
aiXcoder 7Baixcoder:7bHandmatige installatie vereist

Begin vandaag nog met slimmer, sneller en veiliger ontwikkelen - rechtstreeks vanuit je editor.

Wij bieden wereldwijde levering, waaronder Amsterdam, Brussel, Parijs, Madrid, Rome en meer.